[추천기사] AI 에이전트의 메모리 메커니즘 이해 레오니 모니가티의 최신 저서 "AI 에이전트의 메모리 이해"는 현재 AI 에이전트 메모리 시스템의 핵심 개념, 분류, 관리 방법 및 과제를 체계적으로 설명합니다. LLM은 본질적으로 "상태가 없는" 상태이기 때문에 세션 간의 과거 상호작용을 자연스럽게 기억할 수 없습니다. 따라서 개발자는 외부 메커니즘을 통해 에이전트의 "메모리" 기능을 구축하여 사용자 선호도를 학습하고 경험을 축적하며 지속적으로 개선할 수 있도록 해야 합니다. 지능형 에이전트의 기억은 무엇인가? • 핵심 정의: 에이전트 메모리는 에이전트가 여러 사용자 상호작용에서 중요한 정보를 기억하고, 불러오고, 잊어버리는 능력을 의미합니다. 이는 단순히 채팅 로그를 저장하는 것이 아니라, 에이전트가 "학습"하고 "적응"할 수 있도록 하는 것을 의미합니다. 메모리가 왜 필요할까요? LLM은 학습 과정에서 학습한 지식(매개변수 지식)만 기억하며, 각 대화는 기본적으로 0부터 시작합니다. 과거 정보를 수동으로 입력하지 않으면 에이전트는 "잊어버리고" 개인화되고 일관된 서비스를 제공할 수 없게 됩니다. 주요 특징: • "메모리"는 정보를 저장하고 검색하는 기능의 전체 시스템을 말합니다. • 저장 위치를 "메모리 모듈"이라고 하며, "메모리"가 아닌 "정보"를 저장합니다. • 에이전트 메모리: 지능형 에이전트에게 메모리를 제공하는 능력을 말합니다. • 에이전트 메모리: 메모리 시스템 자체도 자율적으로 관리할 수 있습니다(예를 들어, 에이전트는 도구를 통해 자신의 메모리에 액세스할 수 있습니다). 기억의 두 가지 주요 분류 관점 1. 인지 아키텍처 기반 분류(CoALA 논문 및 SOAR 아키텍처에서 발췌한 인간 기억 모방) • 작업 메모리: 현재 컨텍스트 창의 내용을 저장합니다. 이는 진행 중인 인간 대화와 동일하며, 현재 세션에서 사용자의 지시와 에이전트의 응답 등이 여기에 포함됩니다. • 의미 기억: 학교에서 배우는 변하지 않는 지식과 유사한 사실적 지식을 저장합니다. 예를 들어 "사용자는 헨리라는 이름의 개를 키우고 있다" 또는 "사용자의 생일은 8월 15일이다"와 같은 고정된 정보를 말합니다. • 절차 기억: 인간이 자전거를 타는 법을 배울 때 더 이상 생각할 필요 없이 배우는 동작과 유사한 기술, 규칙, 본능을 저장합니다. 예를 들어, "질문에 답하기 전에 생각해야 합니다" 또는 "도구를 사용할 때는 특정 형식을 따라야 합니다"와 같이 시스템 프롬프트에 하드코딩된 행동 규칙이 있습니다. • 절차 기억: 자전거 타는 법을 배운 후 더 이상 생각할 필요가 없는 행동과 유사한 기술, 규칙, 본능을 저장합니다. 예를 들어, "질문에 답하기 전에 생각해야 합니다" 또는 "도구를 사용할 때는 특정 형식을 따라야 합니다"와 같이 시스템 프롬프트에 하드코딩된 고정된 행동 규칙이 있습니다. 2. 디자인 패턴 기반 분류(엔지니어링 구현에 더 중점을 둔 Letta 프레임워크) Letta는 과도한 의인화가 엔지니어링 구현에 해롭다고 믿었고 따라서 분류에 대해 보다 실용적인 접근 방식을 채택했습니다. • 메시지 버퍼: 현재 세션의 가장 최근 메시지(단기, 컨텍스트 내). • 핵심 기억: 에이전트가 적극적으로 유지하는 핵심 사실(사용자의 생일이나 파트너의 이름과 같이 컨텍스트 내에서도)입니다. • 기억 회상: 대화의 완전한 원본 기록(일반적으로 외부에 저장됨). • 보관 메모리: 명시적으로 추출된 지식은 벡터 데이터베이스(장기)와 같은 외부 저장소에 저장됩니다. 두 범주 간의 대응: • CoALA의 작업 메모리 ≈ Letta의 메시지 버퍼 + 핵심 메모리 • CoALA의 장기 메모리(의미론/줄거리/절차)는 대체로 Letta의 보관된 메모리와 일치합니다. • Letta는 CoALA가 별도로 나열하지 않는 "원래 대화 기록"(회상 메모리)에 대한 추가 구분이 있습니다. 메모리 관리: 저장, 검색, 업데이트, 망각은 어떻게 할까? 1. 컨텍스트 정의 창 관리(단기 메모리) • 문제점: 대화가 길어질수록 생성되는 토큰이 많아집니다. → 속도가 느려지고, 비용이 높아지며, 관련 없는 정보가 섞이기 쉽습니다. • 일반적인 기술: 오래된 메시지를 수동으로 정리하고 정기적으로 기록을 요약합니다(요약만 보관). 2. 외부 저장 관리(장기 기억) 핵심 작업(ADD / UPDATE / DELETE / NOOP): • 새로운 정보 추가 • 오래된 정보 업데이트(예: 사용자가 이동한 경우) • 쓸모없는/잘못된 정보를 삭제하세요(메모리가 부풀어 오르는 것을 방지하기 위해) 어떠한 작업도 필요하지 않습니다. 3. 맥락 ↔ 외부 저장 흐름 메커니즘: 명시적 메모리(핫 패스): 에이전트는 실시간으로 어떤 정보가 중요한지 판단하고 자체 도구를 사용하여 장기 메모리에 저장합니다(인간이 의식적으로 무언가를 기억하는 것과 유사). 이는 구현이 어렵고 신뢰성이 낮습니다. 암묵적 기억(백그라운드 처리): 고정된 규칙에 따라 주기적으로 업데이트되어 더 큰 제어력을 제공합니다. 일반적인 시나리오는 다음과 같습니다. • 세션 종료 후 일괄 처리. • 고정된 간격/라운드로 처리. • 각 대화 라운드 후 즉시 처리(높은 실시간 요구 사항). 구현 방법 및 과제: 저장 위치: 현재 대화에 대한 목록, 지침에 대한 텍스트 파일, 장기 지식에 대한 벡터 데이터베이스 또는 그래프 데이터베이스를 사용합니다. • 주요 과제: • 지연 시간: 각 읽기/쓰기 작업은 응답 속도를 늦춥니다. • 망각 메커니즘: 가장 어려운 부분은 오래된 정보를 자동으로 식별하고 삭제하는 방법입니다. 제대로 하지 않으면 메모리가 무한대로 확장되고 품질이 저하됩니다. • 기존 프레임워크: • 집중 메모리: mem0, Letta, Cognee, Zep • 일반 용도 지능형 에이전트 프레임워크(메모리 지원 포함): LangChain/LangGraph, LlamaIndex, CrewAI, Google ADK 주요 결론 및 의미 1. LLM은 기억 없이 태어나므로 진정한 "지능형" 에이전트가 되려면 외부 기억 시스템이 필요합니다. 2. 현재 메모리 설계에는 의인화(CoALA 스타일)와 엔지니어링(Letta 스타일)의 두 가지 접근 방식이 있으며, 향후에는 이 두 방식이 병합될 수 있습니다. 3. 가장 중요한 기술적 과제는 "단기 기억과 장기 기억 사이의 지능적인 정보 흐름"과 "신뢰할 수 있는 자동 망각"에 있습니다. 4. 이 분야는 급속한 발전 단계에 있으며 많은 자본과 오픈소스 프로젝트가 유치되었습니다. 2026년에는 더욱 발전된 솔루션이 등장할 것으로 예상됩니다. 블로그 주소:
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
![[추천기사] AI 에이전트의 메모리 메커니즘 이해
레오니 모니가티의 최신 저서 "AI 에이전트의 메모리 이해"는 현재 AI 에이전트 메모리 시스템의 핵심 개념, 분류, 관리 방법 및 과제를 체계적으로 설명합니다.](https://pbs.twimg.com/media/G6PZArJbsAAu9LI.jpg)