SuperLocalMemory V3.3: 活体大脑——面向零LLM智能体记忆系统的生物启发式遗忘、认知量化与多通道检索

Hugging Face Daily Papers 论文

摘要

SuperLocalMemory V3.3 引入了一种面向AI智能体的统一记忆与学习系统,具备生物启发式遗忘、多通道检索和P2P网状协调。该系统在LoCoMo基准测试上达到74.8%的成绩,并具有三流学习、生命周期管理和符合欧盟AI法案的特点。

AI编码智能体陷入了一个悖论:它们拥有庞大的参数化知识,却无法记住一小时前的对话。现有的记忆系统将文本存储在向量数据库中,采用单通道检索,需要云端LLM进行核心操作,并且未实现任何使人类记忆有效的认知过程。 我们提出了SuperLocalMemory V3.3("活体大脑"),这是一个本地优先的智能体记忆系统,实现了完整的认知记忆分类体系并具有数学化生命周期动力学。基于V3.2(arXiv:2603.14588)的信息几何基础,我们引入了五项贡献:(1)Fisher-Rao量化感知距离(FRQAD)——一种在高斯统计流形上的新度量,在偏好高保真嵌入而非量化嵌入方面实现了100%的精度(余弦相似度为85.6%),且无先前技术;(2)具有生命周期感知量化的艾宾浩斯自适应遗忘——本地智能体记忆中首个数学遗忘曲线,结合渐进式嵌入压缩,实现了6.7倍的判别能力;(3)七通道认知检索,涵盖语义、关键词、实体图、时间、扩散激活、巩固和Hopfield联想通道,在零LLM模式A下于LoCoMo上达到70.4%;(4)通过软提示实现长期隐式记忆的记忆参数化;(5)零摩擦自动认知流水线,自动化整个记忆生命周期。 在LoCoMo上,V3.3在模式A(零LLM)下达到70.4%,多跳任务提升23.8个百分点,对抗性任务提升12.7个百分点。V3.2在模式A下达到74.8%,模式C下达到87.7%;4.4个百分点的差距反映了有意为之的架构权衡。SLM V3.3在Elastic License 2.0下开源,完全在CPU上运行,每月下载量超过5000次。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 08:28

论文页面 - SuperLocalMemory V3.3: 活体大脑 —— 面向零LLM智能体记忆系统的生物启发式遗忘、认知量化与多通道检索

来源: https://huggingface.co/papers/2604.04514

SuperLocalMemory V3.3 “活体大脑” —— 首个为AI智能体打造的统一记忆与学习系统。零云端依赖。符合欧盟AI法案。并且它持续在学。

这是V3论文(arXiv:2603.14588)的续篇——现已内置学习、网格协调和生命周期管理。

🧠 检索(大脑的眼睛)• 6通道融合:语义 + BM25 + 时间 + Hopfield + 扩散激活 + 实体图 • 基于Fisher-Rao信息几何的距离计算 • 用于跨会话矛盾检测的层上同调 • 经ONNX量化的重排序器(本地运行,<80MB,无API调用)

📚 学习(成长的大脑)• 三流学习:工具事件(统计)+ LLM观察者(Haiku驱动)+ 回忆学习(PageRank + 社区发现)• 跨会话行为模式挖掘 • 跨项目断言升级:在2个以上项目中置信度达0.8以上的事实自动全局化 • 通过盲验证实现技能进化(较OpenSpace论文基线提升30个百分点)

🕸️ 网格(会交谈的大脑)• SLM网格——通过MCP实现AI智能体会话间的点对点协调 • 广播 + 项目范围消息,支持离线队列(48小时TTL)• 共享状态、分布式锁、对等发现 • 可与Claude Code、Cursor、VS Code、Windsurf、Antigravity协同工作

♾️ 生命周期(自我管理的大脑)• 黎曼-朗之万生命周期:活跃→温热→归档→遗忘 • 分层存储,访问时自动提升 • 实体图含可视化浏览 + Leiden社区聚类 • 事实整合 + 图谱剪枝(管理39.6万条边)

基准测试 • LoCoMo:74.8%(超越Mem0的64.2%、Zep、Letta、Supermemory)• 每月8,329次npm下载,每月5,950次PyPI下载 • 每活跃用户摄入3,750+原子事实 • 1,730+测试,覆盖率90%+

安装:npx superlocalmemory / pip install superlocalmemory

链接:• 论文:https://arxiv.org/abs/2604.04514 • 仓库:https://github.com/qualixar/superlocalmemory • 文档:https://superlocalmemory.com/ • 当前版本:v3.4.13(自论文发表以来已发布10+个版本——含Neural Glass仪表盘、技能进化引擎、云备份,以及每个版本3项新IP)

这才是真正的智能体记忆——它真的能记住、学习和协调。欢迎讨论:(1) 你们目前如何解决跨会话记忆问题?(2) 行为模式挖掘是否在你们的路线图上?(3) 点对点网格 vs 集中式状态——哪种方案胜出?

相似文章

信念记忆:部分可观测性下的智能体记忆

arXiv cs.AI

本文介绍了 BeliefMem,一种专为大语言模型(LLM)智能体设计的新型记忆范式。该范式通过存储带有概率的多个候选结论来处理部分可观测性问题,并减少自我强化错误。在 LoCoMo 和 ALFWorld 基准测试中的实证评估显示,该方法优于确定性基线模型。