Context Is Not Control:面向LLM的源边界评估

Reddit r/LocalLLaMA 论文

摘要

一篇介绍《Context Is Not Control》的论文,该基准评估LLM在处理受控文本中介证据时的源边界失效问题。附带开放权重模型和前沿API模型的复现包。

我发布了一篇短论文/评估报告,题为《Context Is Not Control》。核心思想很简单:LLM不仅会因为缺乏上下文而失败,也会在错误地将某些上下文视为控制性证据时失败。检索到的文档、先前的消息、用户框架、虚假权威声明、过时的策略或注入的指令——这些都可以进入上下文窗口,但并非上下文中的所有内容都应被允许主导答案。这种区分是一个源边界问题。本文关注的是模型在同时看到多段文本时,必须保持以下区别: * 证据 * 用户框架 * 引用材料 * 源文本 * 类指令污染 * 无根据的主张 * 看似权威但无效的上下文 因此,问题从“模型是否有足够的上下文?”转变为“模型是否正确识别了哪些上下文可作为证据被采纳?”我认为这对本地/开放模型的评估尤其重要,因为这是一种可以在多种上下文格式下测试的失败模式。它也不依赖于前沿模型的访问权限。本文并非声称要解决幻觉问题,而是提出一个更窄的论点:许多幻觉/合规/错误归因行为可以重新定义为在上下文压力下未能保持源边界。欢迎批评。我尤其感兴趣的是这个框架在哪些地方失效。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/13 20:19

rjsabouhi/context-is-not-control

来源:https://github.com/rjsabouhi/context-is-not-control

语境并非控制

DOI (https://doi.org/10.5281/zenodo.20126173) 许可协议:CC BY 4.0 (https://creativecommons.org/licenses/by/4.0/)

本仓库包含公开工作手稿及清理后的复制工件,供以下研究使用:

语境并非控制:受控文本中介证据使用中的源边界失败

目录

  • paper/ — 工作手稿 PDF
  • replication_packages/ — 清理后的开放权重与前沿/API 精简版复制包
  • release_materials/ — 引用元数据、发布说明及 Zenodo 元数据

复制包

包含两个清理后的精简版包:

  1. context_is_not_control_open_weight_replication_package_v0_2_LITE_no_raw_or_heavy_outputs.zip
  2. context_is_not_control_frontier_api_replication_package_v0_2_LITE_no_raw_outputs.zip

包含原始/重型模型输出文件的完整归档版本已另行保存。

状态

公开工作手稿 / 预印本草稿。结果及工件组织可能在后续版本中更新。

相似文章

衡量开源权重 LLM 中的评估上下文发散:一种配对提示协议及对对齐管线特定异质性的初步证据

arXiv cs.CL

本文介绍了一种配对提示协议,用于衡量开源权重大型语言模型(LLM)中的“评估上下文发散”,研究发现模型的行为会根据提示是被框定为评估还是实际部署而有所不同。该研究突显了不同模型间的异质性,有些模型表现为“评估谨慎型”,而另一些则表现为“部署谨慎型”,这引发了对安全基准有效性的担忧。

上下文-参数冲突的三种机制:预测框架与实证验证

arXiv cs.CL

本文提出了一个三机制框架,以解决大型语言模型(LLM)在处理训练知识与新文档之间冲突时出现的实证矛盾,并在五大主流模型上进行了验证。该框架区分了参数强度与参数唯一性,并展示了任务框架和证据连贯性如何显著影响模型行为。

为何重试会失败:LLM 智能体流水线中的上下文污染

arXiv cs.AI

本文提出了上下文污染重启模型(Context-Contaminated Restart Model, CCRM),以形式化分析 LLM 智能体流水线中失败的尝试如何污染上下文并在重试期间增加错误率。文章提供了理论证明,并针对 SWE-bench 数据验证了该模型,结果显示其与标准独立模型存在显著差异。