SuperLocalMemory V3.3: 活体大脑——面向零LLM智能体记忆系统的生物启发式遗忘、认知量化与多通道检索
摘要
SuperLocalMemory V3.3 引入了一种面向AI智能体的统一记忆与学习系统,具备生物启发式遗忘、多通道检索和P2P网状协调。该系统在LoCoMo基准测试上达到74.8%的成绩,并具有三流学习、生命周期管理和符合欧盟AI法案的特点。
查看缓存全文
缓存时间: 2026/04/20 08:28
论文页面 - SuperLocalMemory V3.3: 活体大脑 —— 面向零LLM智能体记忆系统的生物启发式遗忘、认知量化与多通道检索
来源: https://huggingface.co/papers/2604.04514
SuperLocalMemory V3.3 “活体大脑” —— 首个为AI智能体打造的统一记忆与学习系统。零云端依赖。符合欧盟AI法案。并且它持续在学。
这是V3论文(arXiv:2603.14588)的续篇——现已内置学习、网格协调和生命周期管理。
🧠 检索(大脑的眼睛)• 6通道融合:语义 + BM25 + 时间 + Hopfield + 扩散激活 + 实体图 • 基于Fisher-Rao信息几何的距离计算 • 用于跨会话矛盾检测的层上同调 • 经ONNX量化的重排序器(本地运行,<80MB,无API调用)
📚 学习(成长的大脑)• 三流学习:工具事件(统计)+ LLM观察者(Haiku驱动)+ 回忆学习(PageRank + 社区发现)• 跨会话行为模式挖掘 • 跨项目断言升级:在2个以上项目中置信度达0.8以上的事实自动全局化 • 通过盲验证实现技能进化(较OpenSpace论文基线提升30个百分点)
🕸️ 网格(会交谈的大脑)• SLM网格——通过MCP实现AI智能体会话间的点对点协调 • 广播 + 项目范围消息,支持离线队列(48小时TTL)• 共享状态、分布式锁、对等发现 • 可与Claude Code、Cursor、VS Code、Windsurf、Antigravity协同工作
♾️ 生命周期(自我管理的大脑)• 黎曼-朗之万生命周期:活跃→温热→归档→遗忘 • 分层存储,访问时自动提升 • 实体图含可视化浏览 + Leiden社区聚类 • 事实整合 + 图谱剪枝(管理39.6万条边)
基准测试 • LoCoMo:74.8%(超越Mem0的64.2%、Zep、Letta、Supermemory)• 每月8,329次npm下载,每月5,950次PyPI下载 • 每活跃用户摄入3,750+原子事实 • 1,730+测试,覆盖率90%+
安装:npx superlocalmemory / pip install superlocalmemory
链接:• 论文:https://arxiv.org/abs/2604.04514 • 仓库:https://github.com/qualixar/superlocalmemory • 文档:https://superlocalmemory.com/ • 当前版本:v3.4.13(自论文发表以来已发布10+个版本——含Neural Glass仪表盘、技能进化引擎、云备份,以及每个版本3项新IP)
这才是真正的智能体记忆——它真的能记住、学习和协调。欢迎讨论:(1) 你们目前如何解决跨会话记忆问题?(2) 行为模式挖掘是否在你们的路线图上?(3) 点对点网格 vs 集中式状态——哪种方案胜出?
相似文章
Cognis:面向对话式 AI 智能体的上下文感知记忆系统
Lyzr Cognis 推出统一开源记忆系统,融合 BM25 与 Matryoshka 向量搜索并支持版本感知写入,在 LoCoMo 与 LongMemEval 基准上实现 SOTA。
Mem0:利用可扩展的长期记忆构建生产就绪的 AI 智能体
Mem0 引入了一种基于图表示的可扩展内存中心架构,旨在提升大语言模型(LLM)在长期对话中的连贯性,在显著降低延迟和 Token 成本的同时,性能优于现有的记忆系统。
HeLa-Mem:面向LLM智能体的赫布学习与联想记忆
# HeLa-Mem: Hebbian Learning and Associative Memory for LLM Agents 来源:[https://arxiv.org/html/2604.16839](https://arxiv.org/html/2604.16839) Jinchang Zhu1,∗,a, Jindong Li1,∗, Cheng Zhang2,∗, Jiahong Liu3, Menglin Yang1,†,b 1香港科技大学(广州) 2吉林大学 3香港中文大学 [email protected] [email protected] ∗同等贡献 †通讯作者 ###### 摘要 长...
从回想到遗忘:为个性化智能体评估长期记忆
研究者推出 Memora 基准,衡量大模型在持续数周至数月的对话中保留、更新与遗忘用户长期记忆的能力,发现模型常复用已失效记忆。
信念记忆:部分可观测性下的智能体记忆
本文介绍了 BeliefMem,一种专为大语言模型(LLM)智能体设计的新型记忆范式。该范式通过存储带有概率的多个候选结论来处理部分可观测性问题,并减少自我强化错误。在 LoCoMo 和 ALFWorld 基准测试中的实证评估显示,该方法优于确定性基线模型。