Mem0:利用可扩展的长期记忆构建生产就绪的 AI 智能体
摘要
Mem0 引入了一种基于图表示的可扩展内存中心架构,旨在提升大语言模型(LLM)在长期对话中的连贯性,在显著降低延迟和 Token 成本的同时,性能优于现有的记忆系统。
查看缓存全文
缓存时间: 2026/05/08 08:40
论文页 - Mem0:构建具备可扩展长期记忆的生产级 AI Agent
来源:https://huggingface.co/papers/2504.19413
摘要
Mem0 是一种以记忆为中心、基于图结构的记忆架构,通过高效地提取、整合和检索信息,增强了大型语言模型(LLM)在长期对话中的连贯性,在准确性和计算效率方面均优于现有的记忆系统。
大型语言模型(LLM)在生成上下文连贯的响应方面表现出色,但其固定的上下文窗口在维持多轮长期对话的一致性方面带来了根本性挑战。我们提出了 Mem0(https://huggingface.co/papers?q=Mem0),这是一种可扩展的以记忆为中心的架构,通过从持续对话中动态提取、整合和检索关键信息(https://huggingface.co/papers?q=salient%20information)来解决这一问题。在此基础上,我们进一步提出了一种增强型变体,利用基于图结构的记忆(https://huggingface.co/papers?q=graph-based%20memory)表示来捕捉对话元素(https://huggingface.co/papers?q=conversational%20elements)之间复杂的关系结构。通过在 LOCOMO 基准测试(https://huggingface.co/papers?q=LOCOMO%20benchmark)上的全面评估,我们将我们的方法与六类基线进行了系统比较:(i)现有的记忆增强系统(https://huggingface.co/papers?q=memory-augmented%20systems),(ii)具有不同块大小和 k 值的检索增强生成(RAG),(iii)处理整个对话历史的全上下文方法,(iv)开源记忆解决方案(https://huggingface.co/papers?q=memory%20solution),(v)专有模型系统(https://huggingface.co/papers?q=model%20system),以及(vi)专用记忆管理平台。实证结果表明,我们的方法在四类问题(单跳(https://huggingface.co/papers?q=single-hop)、时序(https://huggingface.co/papers?q=temporal)、多跳(https://huggingface.co/papers?q=multi-hop)和开放域(https://huggingface.co/papers?q=open-domain))上均一致优于所有现有记忆系统。值得注意的是,Mem0(https://huggingface.co/papers?q=Mem0)在 LLM-as-a-Judge(https://huggingface.co/papers?q=LLM-as-a-Judge)指标上相比 OpenAI 实现了 26% 的相对提升,而带有图记忆的 Mem0(https://huggingface.co/papers?q=Mem0)总体得分比基础配置高出约 2%。除了准确率的提升,我们还显著降低了与全上下文方法相比的计算开销。具体而言,Mem0(https://huggingface.co/papers?q=Mem0)实现了 91% 的 p95 延迟降低,并节省了超过 90% 的 token 成本,在高级推理能力(https://huggingface.co/papers?q=reasoning%20capabilities)和实际部署限制之间提供了令人信服的平衡。我们的研究结果凸显了结构化、持久性记忆机制在长期对话连贯性中的关键作用,为构建更可靠、高效的 LLM 驱动 AI Agent 铺平了道路。
查看 arXiv 页面(https://arxiv.org/abs/2504.19413)查看 PDF(https://arxiv.org/pdf/2504.19413)项目页面(https://mem0.ai/research)GitHub55kauto(https://github.com/mem0ai/mem0)添加到收藏集(https://huggingface.co/login?next=%2Fpapers%2F2504.19413)
在您的 Agent 中获取此论文:
hf papers read 2504\.19413
没有最新 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash
引用此论文的模型0
无模型链接此论文
在模型 README.md 中引用 arxiv.org/abs/2504.19413 以从此页链接。
引用此论文的数据集1
GloriaaaM/LLM-Agent-Harness-Survey 查看者• 更新于23天前 • 1 • 1.17k • 5 (https://huggingface.co/datasets/GloriaaaM/LLM-Agent-Harness-Survey)
引用此论文的应用空间1
包含此论文的收藏集14
浏览包含此论文的 14 个收藏集(https://huggingface.co/collections?paper=2504.19413)
相似文章
Cognis:面向对话式 AI 智能体的上下文感知记忆系统
Lyzr Cognis 推出统一开源记忆系统,融合 BM25 与 Matryoshka 向量搜索并支持版本感知写入,在 LoCoMo 与 LongMemEval 基准上实现 SOTA。
HeLa-Mem:面向LLM智能体的赫布学习与联想记忆
# HeLa-Mem: Hebbian Learning and Associative Memory for LLM Agents 来源:[https://arxiv.org/html/2604.16839](https://arxiv.org/html/2604.16839) Jinchang Zhu1,∗,a, Jindong Li1,∗, Cheng Zhang2,∗, Jiahong Liu3, Menglin Yang1,†,b 1香港科技大学(广州) 2吉林大学 3香港中文大学 [email protected] [email protected] ∗同等贡献 †通讯作者 ###### 摘要 长...
SuperLocalMemory V3.3: 活体大脑——面向零LLM智能体记忆系统的生物启发式遗忘、认知量化与多通道检索
SuperLocalMemory V3.3 引入了一种面向AI智能体的统一记忆与学习系统,具备生物启发式遗忘、多通道检索和P2P网状协调。该系统在LoCoMo基准测试上达到74.8%的成绩,并具有三流学习、生命周期管理和符合欧盟AI法案的特点。
从回想到遗忘:为个性化智能体评估长期记忆
研究者推出 Memora 基准,衡量大模型在持续数周至数月的对话中保留、更新与遗忘用户长期记忆的能力,发现模型常复用已失效记忆。
StageMem:面向语言模型的生命周期管理记忆框架
StageMem 提出了一种面向语言模型的生命周期管理记忆框架,该框架将记忆划分为瞬态、工作状态和持久状态三个阶段,并引入明确的置信度与强度指标,将记忆视为一种有状态的处理流程而非静态存储,从而在容量受限的条件下更精准地管理信息的保留与遗忘。