MemPrivacy:面向边缘-云智能体的隐私保护个性化记忆管理

Hugging Face Daily Papers 论文

摘要

MemPrivacy 是一项研究,介绍了一种用于边缘-云 AI 智能体的隐私保护个性化记忆管理框架,该框架利用类型感知占位符在保护敏感数据的同时维持语义效用。本文包含一个新的基准数据集,并展示了其性能优于 GPT-5.2 和 Gemini-3.1-Pro 等通用模型。

随着由大型语言模型(LLM)驱动的智能体越来越多地部署在边缘-云环境中,个性化记忆已成为长期适应用户中心交互的关键使能技术。然而,云端辅助的记忆管理会暴露敏感的用户信息,而现有的隐私保护方法通常依赖于激进的掩码技术,这不仅移除了与任务相关的语义,还导致记忆效用和个人化质量的下降。为了应对这一挑战,我们提出了 MemPrivacy。该方案在边缘设备上识别隐私敏感片段,将其替换为具有语义结构的类型感知占位符以进行云端记忆处理,并在需要时本地恢复原始值。通过解耦隐私保护与语义破坏,MemPrivacy 在保留有效记忆形成和检索所需信息的同时,最大限度地减少敏感数据的暴露。我们还构建了 MemPrivacy-Bench 进行系统评估,这是一个覆盖 200 名用户和超过 5.2 万个隐私实例的数据集,并引入了一种四级隐私分类法以实现可配置的保护策略。实验表明,MemPrivacy 在隐私信息提取方面表现出色,大幅超越 GPT-5.2 和 Gemini-3.1-Pro 等强大的通用模型,同时也降低了推理延迟。在多个广泛使用的记忆系统中,MemPrivacy 将效用损失限制在 1.6% 以内,优于基线掩码策略。总体而言,MemPrivacy 为边缘-云智能体在隐私保护与个性化记忆效用之间提供了有效的平衡,实现了安全、实用且对用户透明的部署。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/13 04:12

论文页面 - MemPrivacy: 面向边缘-云智能体的隐私保护个性化记忆管理

来源: https://huggingface.co/papers/2605.09530

摘要

MemPrivacy 通过使用类型感知占位符在保护敏感数据的同时维持语义完整性,从而在边缘-云环境中实现隐私保护的个性化记忆。

随着基于大语言模型(LLM)的智能体越来越多地部署在边缘-云环境中 (https://huggingface.co/papers?q=edge-cloud%20environments),个性化记忆 (https://huggingface.co/papers?q=personalized%20memory) 已成为实现长期适应性和以用户为中心的交互的关键赋能技术。然而,云端辅助的记忆管理会暴露敏感的用户信息,而现有的隐私保护 (https://huggingface.co/papers?q=privacy%20protection) 方法通常依赖于激进的掩码技术,这会移除与任务相关的语义,进而降低记忆的效用和个性化质量。为了解决这一挑战,我们提出了 MemPrivacy。它在边缘设备上识别隐私敏感片段,将其替换为具有语义结构的类型感知占位符以供云端进行记忆处理,并在需要时在本地恢复原始值。通过将隐私保护 (https://huggingface.co/papers?q=privacy%20protection) 与语义破坏解耦,MemPrivacy 在最小化敏感数据暴露的同时,保留了有效记忆形成 (https://huggingface.co/papers?q=memory%20formation) 和检索所需的信息。我们还构建了用于系统评估的 MemPrivacy-Bench 数据集,该数据集涵盖 200 名用户和超过 5.2 万个隐私实例,并引入了一种四级隐私分类法 (https://huggingface.co/papers?q=privacy%20taxonomy) 以支持可配置的保护策略。实验表明,MemPrivacy 在隐私信息提取 (https://huggingface.co/papers?q=privacy%20information%20extraction) 方面表现出强劲的性能,大幅超越了 GPT-5.2 和 Gemini-3.1-Pro 等强大的通用模型,同时也降低了推理延迟 (https://huggingface.co/papers?q=inference%20latency)。在多个广泛使用的记忆系统 (https://huggingface.co/papers?q=memory%20systems) 中,MemPrivacy 将效用损失 (https://huggingface.co/papers?q=utility%20loss) 控制在 1.6% 以内,优于基线掩码策略。总体而言,MemPrivacy 为边缘-云智能体在隐私保护 (https://huggingface.co/papers?q=privacy%20protection) 和个性化记忆 (https://huggingface.co/papers?q=personalized%20memory) 效用之间提供了有效的平衡,实现了安全、实用且对用户透明的部署。

查看 arXiv 页面 (https://arxiv.org/abs/2605.09530)查看 PDF (https://arxiv.org/pdf/2605.09530)GitHub31 (https://github.com/MemTensor/MemPrivacy)添加到集合 (https://huggingface.co/login?next=%2Fpapers%2F2605.09530)

在你的智能体中获取这篇论文:

hf papers read 2605\.09530

没有最新的 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash

引用此论文的模型4

IAAR-Shanghai/MemPrivacy-1.7B-SFT 文本生成 • 2B • 更新于约2小时前 • 74 • 20 (https://huggingface.co/IAAR-Shanghai/MemPrivacy-1.7B-SFT)

IAAR-Shanghai/MemPrivacy-1.7B-RL 文本生成 • 2B • 更新于约2小时前 • 52 • 10 (https://huggingface.co/IAAR-Shanghai/MemPrivacy-1.7B-RL)

IAAR-Shanghai/MemPrivacy-4B-SFT 文本生成 • 196k • 更新于约2小时前 • 51 • 9 (https://huggingface.co/IAAR-Shanghai/MemPrivacy-4B-SFT)

IAAR-Shanghai/MemPrivacy-4B-RL 文本生成 • 4B • 更新于约2小时前 • 107 • 9 (https://huggingface.co/IAAR-Shanghai/MemPrivacy-4B-RL)

引用此论文的数据集0

没有数据集链接此论文

在数据集 README.md 中引用 arxiv.org/abs/2605.09530 以从此页面链接它。

引用此论文的 Spaces0

没有 Space 链接此论文

在 Space README.md 中引用 arxiv.org/abs/2605.09530 以从此页面链接它。

包含此论文的集合0

没有集合包含此论文

将此论文添加到集合 (https://huggingface.co/new-collection)以从此页面链接它。

相似文章

YourMemory

Product Hunt

<p>通过自剪枝 MCP 记忆,Token 浪费减少 84%</p> <p> <a href="https://www.producthunt.com/products/yourmemory?utm_campaign=producthunt-atom-posts-feed&utm_medium=rss-feed&utm_source=producthunt-atom-posts-feed">讨论</a> | <a href="https://www.producthunt.com/r/p/1128311?app_id=339">链接</a> </p>

rohitg00/agentmemory

GitHub Trending (daily)

agentmemory 是一个开源的持久化记忆层,专为 AI 编程智能体(Claude Code、Cursor、Gemini CLI、Codex CLI 等)设计。它通过知识图谱、置信度评分和混合搜索技术,借助 MCP、Hooks 或 REST API,为智能体提供跨会话的长期记忆能力。该项目基于 iii 引擎构建,无需外部数据库,提供 51 个 MCP 工具。

MemEvoBench:LLM 代理内存误演化基准测试

arXiv cs.CL

MemEvoBench 引入了首个用于评估 LLM 代理内存安全性的基准测试,衡量对抗性内存注入、噪声输出和有偏反馈在问答与工作流任务中导致的行为衰退。该研究表明内存演化是安全失败的重要因素,且静态防御措施不足以应对。

在 LongMemEval-S 上对智能体记忆检索进行基准测试 — Recall@5 达 98%,R@23 实现 100% 召回,仅依赖本地嵌入模型 (all-MiniLM-L6-v2),无需 LLM 与 API Key

Reddit r/AI_Agents

作者分享了用于智能体记忆的 Python 库 memweave 的基准测试结果,该库仅使用本地嵌入且无需调用 LLM,便在 LongMemEval-S 上实现了 98% 的 Recall@5。本文详细介绍了实现方法,并与 mempalace 进行了性能对比,突出了其在不同问题类型上稳定的检索表现。