Mem0:利用可扩展的长期记忆构建生产就绪的 AI 智能体

Papers with Code Trending 论文

摘要

Mem0 引入了一种基于图表示的可扩展内存中心架构,旨在提升大语言模型(LLM)在长期对话中的连贯性,在显著降低延迟和 Token 成本的同时,性能优于现有的记忆系统。

大语言模型(LLM)在生成上下文连贯的响应方面展现了卓越的能力,然而其固定的上下文窗口为在长时间跨会话对话中保持一致性带来了根本性挑战。我们引入了 Mem0,这是一种可扩展的以记忆为中心的架构,通过从持续进行的对话中动态提取、整合和检索关键信息来解决这一问题。在此基础上,我们进一步提出了一种增强型变体,利用基于图的记忆表示来捕捉对话元素之间复杂的关联结构。通过在 LOCOMO 基准测试上的全面评估,我们将我们的方法与六类基线方法进行了系统比较:(i) 成熟的记忆增强系统,(ii) 使用不同块大小和 k 值的检索增强生成(RAG),(iii) 处理整个对话历史的完整上下文方法,(iv) 开源记忆解决方案,(v) 专有模型系统,以及 (vi) 专用记忆管理平台。实证结果表明,我们的方法在单跳、时序、多跳和开放域这四类问题中,始终优于所有现有的记忆系统。值得注意的是,在“LLM-as-a-Judge”指标上,Mem0 相比 OpenAI 实现了 26% 的相对提升,而采用图记忆的 Mem0 比基础配置的整体得分高出约 2%。除了准确率的提升,与完整上下文方法相比,我们还显著降低了计算开销。具体而言,Mem0 的 p95 延迟降低了 91%,Token 成本节省了超过 90%,在先进的推理能力与实际部署限制之间提供了引人注目的平衡。我们的研究强调了结构化、持久化记忆机制在长期对话连贯性中的关键作用,为构建更可靠、高效的大语言模型驱动的 AI 智能体铺平了道路。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 08:40

论文页 - Mem0:构建具备可扩展长期记忆的生产级 AI Agent

来源:https://huggingface.co/papers/2504.19413

摘要

Mem0 是一种以记忆为中心、基于图结构的记忆架构,通过高效地提取、整合和检索信息,增强了大型语言模型(LLM)在长期对话中的连贯性,在准确性和计算效率方面均优于现有的记忆系统。

大型语言模型(LLM)在生成上下文连贯的响应方面表现出色,但其固定的上下文窗口在维持多轮长期对话的一致性方面带来了根本性挑战。我们提出了 Mem0(https://huggingface.co/papers?q=Mem0),这是一种可扩展的以记忆为中心的架构,通过从持续对话中动态提取、整合和检索关键信息(https://huggingface.co/papers?q=salient%20information)来解决这一问题。在此基础上,我们进一步提出了一种增强型变体,利用基于图结构的记忆(https://huggingface.co/papers?q=graph-based%20memory)表示来捕捉对话元素(https://huggingface.co/papers?q=conversational%20elements)之间复杂的关系结构。通过在 LOCOMO 基准测试(https://huggingface.co/papers?q=LOCOMO%20benchmark)上的全面评估,我们将我们的方法与六类基线进行了系统比较:(i)现有的记忆增强系统(https://huggingface.co/papers?q=memory-augmented%20systems),(ii)具有不同块大小和 k 值的检索增强生成(RAG),(iii)处理整个对话历史的全上下文方法,(iv)开源记忆解决方案(https://huggingface.co/papers?q=memory%20solution),(v)专有模型系统(https://huggingface.co/papers?q=model%20system),以及(vi)专用记忆管理平台。实证结果表明,我们的方法在四类问题(单跳(https://huggingface.co/papers?q=single-hop)、时序(https://huggingface.co/papers?q=temporal)、多跳(https://huggingface.co/papers?q=multi-hop)和开放域(https://huggingface.co/papers?q=open-domain))上均一致优于所有现有记忆系统。值得注意的是,Mem0(https://huggingface.co/papers?q=Mem0)在 LLM-as-a-Judge(https://huggingface.co/papers?q=LLM-as-a-Judge)指标上相比 OpenAI 实现了 26% 的相对提升,而带有图记忆的 Mem0(https://huggingface.co/papers?q=Mem0)总体得分比基础配置高出约 2%。除了准确率的提升,我们还显著降低了与全上下文方法相比的计算开销。具体而言,Mem0(https://huggingface.co/papers?q=Mem0)实现了 91% 的 p95 延迟降低,并节省了超过 90% 的 token 成本,在高级推理能力(https://huggingface.co/papers?q=reasoning%20capabilities)和实际部署限制之间提供了令人信服的平衡。我们的研究结果凸显了结构化、持久性记忆机制在长期对话连贯性中的关键作用,为构建更可靠、高效的 LLM 驱动 AI Agent 铺平了道路。

查看 arXiv 页面(https://arxiv.org/abs/2504.19413)查看 PDF(https://arxiv.org/pdf/2504.19413)项目页面(https://mem0.ai/research)GitHub55kauto(https://github.com/mem0ai/mem0)添加到收藏集(https://huggingface.co/login?next=%2Fpapers%2F2504.19413)

在您的 Agent 中获取此论文:

hf papers read 2504\.19413

没有最新 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash

引用此论文的模型0

无模型链接此论文

在模型 README.md 中引用 arxiv.org/abs/2504.19413 以从此页链接。

引用此论文的数据集1

GloriaaaM/LLM-Agent-Harness-Survey 查看者• 更新于23天前 • 1 • 1.17k • 5 (https://huggingface.co/datasets/GloriaaaM/LLM-Agent-Harness-Survey)

引用此论文的应用空间1

包含此论文的收藏集14

浏览包含此论文的 14 个收藏集(https://huggingface.co/collections?paper=2504.19413)

相似文章

StageMem:面向语言模型的生命周期管理记忆框架

arXiv cs.CL

StageMem 提出了一种面向语言模型的生命周期管理记忆框架,该框架将记忆划分为瞬态、工作状态和持久状态三个阶段,并引入明确的置信度与强度指标,将记忆视为一种有状态的处理流程而非静态存储,从而在容量受限的条件下更精准地管理信息的保留与遗忘。