대규모 언어모델(LLM)의 가장 큰 한계 중 하나였던 *장기적 맥락 유지* 문제 해결을 위해 인공지능 스타트업 메모(Mem0)가 야심 찬 해법을 제시했다. 메모는 최근 기존 메모리 구조의 한계를 극복하기 위해 설계된 두 가지 신형 메모리 아키텍처 ‘Mem0’와 ‘Mem0g’를 공개하며, 장시간 대화에서도 일관되면서도 정확한 응답을 생성할 수 있는 기반 기술을 선보였다.
Mem0와 Mem0g는 AI 시스템이 인간처럼 기억을 선택적으로 취합하고 필요할 때만 적절히 꺼내 쓸 수 있도록 설계됐다. 기존 대규모 언어모델이 고정된 수천 또는 수백만 개 토큰의 *콘텍스트 윈도우*에만 의존하면서 야기됐던 맥락 단절을 극복하기 위한 기술적 진보다. 특히 수일 또는 수개월에 걸쳐 이뤄지는 고객 서비스, 헬스케어 상담, 업무용 디지털 비서 응용 등에 중요한 해결책으로 주목받고 있다.
Mem0는 대화가 진행됨에 따라 등장하는 중요한 정보들을 추출하고, 이를 대화의 흐름에 맞춰 새롭게 요약 및 갱신한다. 이 정보는 대화 맥락과 요약문을 기반으로 한 후보 기억들로 정리된 후, 기존 기억들과의 의미적 비교를 통해 유지 여부가 자동으로 결정된다. 중복되거나 불필요한 정보는 제거되고, 새로운 사실이 포함됐을 경우엔 해당 기억에 통합된다. 이를 통해 AI는 질문 응답 과정에서 필요한 정보만을 효율적으로 불러올 수 있게 된다.
여기에 그래프 기반으로 확장된 Mem0g는 사람, 장소, 개념 등 다양한 요소를 그래프 노드로 삼고, 이들 간의 논리적 관계를 관계선으로 이어 대화 정보를 보다 복잡한 구조로 저장할 수 있도록 한다. 예를 들어 사용자의 여행 기록과 음식 취향 정보를 연계해 “사용자가 어느 도시에 언제 여행했고, 어떤 활동을 선호했는가” 같은 질문에 보다 정교한 답변을 내놓는다.
Taranjeet Singh 메모 최고경영자(CEO)는 “현재 대부분의 AI 시스템은 고정된 콘텍스트 구조에 갇혀 있으며, 이로 인해 장기기억이나 복잡한 맥락 파악이 어려운 상황”이라며 “우리 기술은 ‘필요한 기억만을 유지하는’ 인간형 기억체계를 구축함으로써 장기적 신뢰성과 일관성을 확보하는 데 집중했다”고 설명했다.
연구진은 공개된 논문과 테스트에서 Mem0, Mem0g의 성능을 입증했다. 장기 대화 기억력을 평가하는 LOCOMO 벤치마크에서 이들 시스템은 OpenAI의 챗GPT 메모리 시스템, 여러 검색 증강 생성(RAG) 모델, 오픈소스 기억 구조와의 비교 평가에서 성능과 응답 속도 모두에서 우위를 보였다. Mem0는 전체 대화 기록 입력 방식보다 최대 91% 응답 지연 시간을 줄였고, 토큰 비용도 90% 이상 절감한 것으로 나타났다.
Mem0는 사실 회상 중심의 간단한 응답에는 최적화돼 있으며 봇 응답 지연을 150ms 이하로 유지할 수 있어, 개인 비서나 실시간 인공지능 고객상담 등 신속한 응답이 중요한 상황에 적합하다. 반면 Mem0g는 다중 관계나 시간 흐름을 고려해야 하는 복잡한 질문에서 강점을 드러낸다. 예를 들어 “예산을 승인한 사람은 누구이며, 승인된 시점은 언제인가” 등을 분석할 때 효과를 발휘한다.
Singh CEO는 “AI가 인간처럼 상호작용하고 기억할 수 있으려면 과거 기록 전체를 반복 처리하는 방식 대신, 살아 움직이는 기억 구조가 필요하다”며 “Mem0와 Mem0g는 기업용 AI 동반자, 자율 에이전트, 생산성 도우미로 진화하는 데 필요한 신뢰성과 정밀함을 제공할 것”이라고 강조했다.
AI의 진화가 단순히 답을 잘하는 수준을 넘어 ‘기억을 바탕으로 진화하는 동료’로 나아가고 있는 가운데, 메모의 도전은 향후 기업용 인공지능의 새로운 기준이 될 수 있을 것으로 보인다.