Product · Self-Learning Memory OS (제품 · 자기학습 메모리 OS)
SLM AGI Capsule (Self-Learning Memory AGI OS)
A self-learning memory layer that turns repeated work, incidents, and feedback into living operating patterns for your AI and systems. (반복되는 업무·사건·피드백을 모아서, AI와 시스템이 사용하는 살아 있는 운영 패턴으로 바꾸는 자기학습 메모리 레이어입니다.)
What is SLM AGI? (SLM AGI란?)
SLM AGI (Self-Learning Memory AGI OS) is an operating loop on top of LLMs that continuously: (SLM AGI는 LLM 위에서 동작하는 운영 루프로, 지속적으로 다음을 수행합니다:)
- Observes what happened. (무슨 일이 일어났는지 관찰)
- Evaluates what worked / failed. (무엇이 잘 되었고, 무엇이 실패했는지 평가)
- Condenses it into reusable patterns and rules. (재사용 가능한 패턴·규칙으로 압축)
It is not a single “super model”, but a memory-driven OS that makes your existing models behave like a learning organization. (하나의 “초모델”이 아니라, 기존 모델들을 학습하는 조직처럼 움직이게 만드는 메모리 중심 OS입니다.)
Where it fits (어디에 쓰이나요?)
- AI operations (AI 운영) – ticket, incident, and runbook learning.
- Robotics & cobots – refine task flows and safety patterns over time.
- Customer & field ops – learn from front-line conversations.
- R&D labs – long-term experiments with multi-layer AI behavior.
1. Core Idea (핵심 개념)
Most organizations call an AI model as if it never remembers yesterday. SLM AGI introduces a structured memory & learning loop: (대부분의 조직은 어제 일을 기억 못 하는 모델을 계속 호출합니다. SLM AGI는 여기에 구조화된 메모리·학습 루프를 추가합니다:)
- Collects events, decisions, and outcomes into a grid. (이벤트·결정·결과를 그리드로 수집)
- Evaluates quality with verification rules (GLOS / Grid Logic). (GLOS 검증 규칙으로 품질 평가)
- Updates playbooks, hints, and guardrails for the next cycle. (다음 사이클을 위한 플레이북·힌트·가드레일 업데이트)
Over time, the system behaves less like “a new intern” and more like “a seasoned operator” for your domain. (시간이 지날수록, 시스템은 “새 인턴”이 아니라 “해당 분야에 익숙한 운영자”처럼 움직이게 됩니다.)
2. Architecture Layers (아키텍처 레이어)
At a high level, the SLM AGI capsule works through these layers:
- Layer A – Observation Grid Events from logs, chat, sensors, LCTS, and Debugging OS are normalized. (로그·채팅·센서·LCTS·디버깅 OS에서 들어오는 이벤트를 정규화)
- Layer B – Evaluation & Scoring Uses verification rules to score outcomes (success, near-miss, failure). (검증 규칙으로 성공·아슬아슬·실패를 점수화)
- Layer C – Pattern Mining Finds recurring chains: “When A + B + C, outcome tends to be X.” (“A+B+C 조합이면 보통 X 결과” 같은 반복 패턴 탐색)
- Layer D – Policy & Playbook Updates Converts patterns into human-readable playbooks and machine-usable rules. (패턴을 사람이 읽는 플레이북·머신 규칙으로 변환)
- Layer E – Deployment & Feedback Feeds updated hints to LLMs, robots, and systems; measures impact. (업데이트된 힌트를 LLM·로봇·시스템에 배포하고 효과를 측정)
3. How the Capsule is Used (캡슐 사용 방식)
For 1 Day / 1 Session capsules, SLM AGI can be used in a controlled, time-bounded way for pilots and contests: (1일 / 1세션 캡슐 형태로, PoC·컨테스트에서 시간 제한된 방식으로 사용할 수 있습니다.)
- Obtain SLM AGI capsule & keys (invited pilots). (초청된 파일럿·파트너에게 SLM AGI 캡슐과 키 발급)
- Connect your environment. Decide which logs, events, and tasks are visible to SLM AGI. (어떤 로그·이벤트·업무를 SLM AGI에 보이게 할지 범위 설정)
- Run a learning cycle for 1 day. Let the capsule observe, evaluate, and propose playbooks based on that day. (그날 동안 캡슐이 관찰·평가·플레이북 제안을 수행하도록 허용)
- Review human-in-the-loop. Humans approve, edit, or reject proposed changes. (사람이 제안된 변경사항을 승인·수정·거절하는 루프)
- Decide what to keep. Only selected patterns are carried over into your long-term system. (선택된 패턴만 장기 시스템에 반영)
4. Example Scenarios (예시 시나리오)
- [Robot Fleet] Multiple robots share incidents and successful routes. SLM AGI turns this into updated pathing and safety rules. (여러 로봇이 사고·성공 경로를 공유 → SLM AGI가 경로·안전 규칙을 갱신)
- [Customer Operations] Support conversations and escalations are mined to create refined response guides and triage flows. (고객 응대·에스컬레이션 데이터를 분석해, 더 나은 응대 가이드·티어 분류 흐름 생성)
- [Factory & Field] Equipment alarms, near-misses, and maintenance logs become a dynamic risk map and checklist library. (설비 알람·사고 직전·정비 로그를 동적 리스크 맵·체크리스트 라이브러리로 변환)
- [AI Challenge / R&D] Participants submit systems; SLM AGI evaluates how well they learn from feedback within 1 day. (챌린지 참가 시스템이 1일 동안 피드백에서 얼마나 잘 학습하는지 평가)
5. Safety & Governance (안전·거버넌스)
Because SLM AGI touches learning and policy updates, it is always wrapped with strong governance: (SLM AGI는 학습·정책 업데이트를 다루기 때문에, 항상 강한 거버넌스와 함께 운영됩니다.)
- Human approval required for critical changes. (중요 변경에는 사람 승인 필수)
- Versioned playbooks and rollback paths. (플레이북 버전 관리·롤백 경로 확보)
- Audit logs for “who changed what and why”. (“누가·무엇을·왜 바꿨는지”에 대한 감사 로그)
- Separation of test vs. production learning loops. (테스트·운영 학습 루프 분리)
6. Relationship to Other STELAFOX Capsules (다른 캡슐과의 관계)
- SLM AGI + Debugging OS Learns from debugging logs: which mistakes repeat, which fixes are most stable. (디버깅 로그에서 반복되는 실수·안정적인 수정 패턴을 학습)
- SLM AGI + LCTS Learns spatial risk patterns: which zones cause incidents over months. (수개월에 걸쳐 사고가 발생하는 공간 패턴 학습)
- SLM AGI + 2.5D / 3.5D BOXER Learns which visual styles and motions maximize understanding or engagement. (어떤 비주얼·모션 스타일이 이해·몰입을 높이는지 학습)
7. How to Engage (도입·협업 방법)
- For enterprise pilots, contact us with [ENTERPRISE]. (기업 파일럿은 [ENTERPRISE] 태그로 문의)
- For robotics & industrial use, use [ROBOTICS] or [INDUSTRIAL]. (로봇·산업용은 [ROBOTICS], [INDUSTRIAL] 태그)
- For STELAFOX AI Challenge, see the Challenge page and choose the SLM AGI track. (STELAFOX AI 챌린지 참가자는 Challenge 페이지에서 SLM AGI 트랙 선택)
All SLM AGI collaborations start with a conversation about scope, data boundaries, and governance. Please reach out via the Contact page. (모든 SLM AGI 협업은 범위·데이터 경계·거버넌스에 대한 논의로 시작합니다. 자세한 내용은 Contact 페이지에서 문의해 주세요.)