BOOKMARKS: 用于角色扮演的高效主动剧情记忆
摘要
BOOKMARKS是一种基于搜索的记忆框架,用于角色扮演代理,通过结构化书签主动维护与任务相关的故事细节,性能优于现有的循环摘要方法。
查看缓存全文
缓存时间: 2026/05/15 04:24
论文页面 - BOOKMARKS: 高效的主动故事线记忆用于角色扮演
来源:https://huggingface.co/papers/2605.14169
摘要
BOOKMARKS 是一个基于搜索的记忆框架,通过结构化的书签主动管理任务相关信息,捕捉详细角色行为和故事元素,从而改进角色扮演代理。
记忆系统 (https://huggingface.co/papers?q=Memory%20systems) 对于角色扮演代理 (https://huggingface.co/papers?q=role-playing%20agents) (RPA) 维持长程一致性至关重要。然而,现有的 RPA 记忆方法(例如,角色画像)主要依赖循环摘要 (https://huggingface.co/papers?q=recurrent%20summarization),其压缩过程不可避免地丢弃重要细节。为解决此问题,我们提出一个名为 BOOKMARKS (https://huggingface.co/papers?q=BOOKMARKS) 的基于搜索的记忆框架 (https://huggingface.co/papers?q=search-based%20memory),该框架针对当前任务(例如,角色扮演)主动初始化、维护和更新任务相关片段 (https://huggingface.co/papers?q=task-relevant%20pieces) 的书签 (https://huggingface.co/papers?q=bookmarks)。一个书签被结构化为在故事线特定时间点上对一个问题的回答。对于每个当前任务,BOOKMARKS (https://huggingface.co/papers?q=BOOKMARKS) 选择可复用的现有书签 (https://huggingface.co/papers?q=bookmarks) 或初始化新的书签(在故事开头)并附带有用的问题。这些书签 (https://huggingface.co/papers?q=bookmarks) 随后同步到当前故事点,其答案相应更新,从而可在未来的基础 (https://huggingface.co/papers?q=grounding) 轮次中高效复用。与循环摘要 (https://huggingface.co/papers?q=recurrent%20summarization) 相比,BOOKMARKS (https://huggingface.co/papers?q=BOOKMARKS) 提供 (1) 主动基础 (https://huggingface.co/papers?q=grounding) 以捕获任务特定细节,以及 (2) 被动更新以避免不必要的计算。在实现上,BOOKMARKS (https://huggingface.co/papers?q=BOOKMARKS) 支持概念、行为和状态搜索 (https://huggingface.co/papers?q=state%20search),每种搜索均由高效的同步 (https://huggingface.co/papers?q=synchronization) 方法驱动。BOOKMARKS (https://huggingface.co/papers?q=BOOKMARKS) 在来自 16 个作品的 85 个角色上显著优于 RPA 记忆基线,证明了基于搜索的记忆 (https://huggingface.co/papers?q=search-based%20memory) 对于 RPA 的有效性。
查看 arXiv 页面 (https://arxiv.org/abs/2605.14169) 查看 PDF (https://arxiv.org/pdf/2605.14169) GitHub3 (https://github.com/KomeijiForce/BOOKMARKS_Koishiday_2026) 添加到收藏 (https://huggingface.co/login?next=%2Fpapers%2F2605.14169)
在你的代理中获取此论文:
hf papers read 2605.14169
没有最新的 CLI?curl -LsSf https://hf.co/cli/install.sh | bash
引用此论文的模型0
没有模型链接此论文
请在模型 README.md 中引用 arxiv.org/abs/2605.14169 以从该页面链接。
引用此论文的数据集0
没有数据集链接此论文
请在数据集 README.md 中引用 arxiv.org/abs/2605.14169 以从该页面链接。
引用此论文的 Spaces0
没有 Space 链接此论文
请在 Space README.md 中引用 arxiv.org/abs/2605.14169 以从该页面链接。
包含此论文的收藏0
没有收藏包含此论文
请将此论文添加到收藏 (https://huggingface.co/new-collection) 以从该页面链接。
相似文章
从回想到遗忘:为个性化智能体评估长期记忆
研究者推出 Memora 基准,衡量大模型在持续数周至数月的对话中保留、更新与遗忘用户长期记忆的能力,发现模型常复用已失效记忆。
MemReread:通过记忆引导的重读增强智能体长上下文推理
MemReread 提出了一种长上下文推理方法,通过分解问题和重读文本来恢复被丢弃的信息,避免了中间检索,实现了线性时间复杂度。该方法在长上下文推理任务上优于基线框架。
MemReranker:面向智能体记忆检索的推理感知重排序
MemReranker 是一个针对智能体记忆检索设计的推理感知重排序模型家族(0.6B/4B),通过结合 LLM 知识蒸馏技术解决语义相似性匹配的局限性,从而提升模型的时间与因果推理能力。
我为编码智能体的“记忆”构建了一个基准测试,期待他人来挑战它
开发者创建了一个名为 continuity-benchmarks 的新基准测试,用于测试 AI 编码智能体在活跃开发过程中保持与项目规则一致性的能力,解决了现有记忆基准测试的空白——这些测试侧重于语义回忆而非实时架构一致性和多会话行为。
LongMemEval-V2:评估长期智能体记忆,迈向经验丰富的同事
本文介绍了 LongMemEval-V2,这是一个用于评估 Web 智能体长期记忆系统的基准,同时提出了两种记忆方法:AgentRunbook-R 和 AgentRunbook-C。