辩论未言之隐:角色锚定的多智能体推理检测半真半假

arXiv cs.CL 论文

摘要

RADAR 提出角色锚定的多智能体辩论框架,让“政客”与“科学家”智能体在证据上对抗推理,识别因遗漏语境而具误导性的半真半假,在 omission-aware 事实验证上全面超越基线。

arXiv:2604.19005v1 公告类型:新 摘要:半真半假——事实正确却因遗漏语境而误导的陈述——仍是专注显性谬误的事实验证系统盲区。应对此类基于遗漏的操控,需不仅推理“说了什么”,还要推理“没说什么”。我们提出 RADAR,一种角色锚定的多智能体辩论框架,在真实、嘈杂的检索环境下进行 omission-aware 事实验证。RADAR 为“政客”与“科学家”分配互补角色,二者在共享检索证据上对抗推理,并由中立“法官”主持。双阈值早停控制器自适应决定何时已达成充分推理并给出裁决。实验表明,RADAR 在各数据集与主干模型上持续优于强单智能体与多智能体基线,提升遗漏检测准确率并降低推理成本。结果证明,角色锚定、基于检索的自适应控制辩论是揭示事实验证中缺失语境的有效且可扩展框架。代码地址:https://github.com/tangyixuan/RADAR
查看原文
查看缓存全文

缓存时间: 2026/04/22 08:30

# 辩论未言之语:面向半真半假检测的角色锚定多智能体推理  
来源:https://arxiv.org/html/2604.19005  
Yixuan Tang¹ Yirui Zhang¹ Hang Feng² Anthony K. H. Tung¹  
¹新加坡国立大学 ²上海交通大学  
[email protected][email protected][email protected][email protected]  

###### 摘要  
半真半假——因缺失语境而具有误导性、却在字面上正确的陈述——仍是专注显性假话的事实核查系统的盲区。应对此类“遗漏式操控”不仅要推理说了什么,更要推理没说什么。我们提出 RADAR,一种角色锚定的多智能体辩论框架,在真实、嘈杂的检索环境下进行“遗漏感知”事实核查。RADAR 为*政客*与*科学家*分配互补角色,二者在共享检索证据上对抗式推理,并由中立的*法官*主持。双阈值早停控制器自适应决定何时已充分推理并给出裁决。实验表明,RADAR 在各数据集与骨干模型上均稳定超越强单智能体与多智能体基线,提升遗漏检测准确率并降低推理开销。结果证实,角色锚定、检索 grounded 且自适应控制的辩论是揭示事实核查中缺失语境的有效可扩展框架。代码开源:https://github.com/tangyixuan/RADAR。  

## 1 引言  
图 1:事实核查范式概览:(a) 基于编码器的声明-证据对分类器,(b) 提示引导的大模型,(c) 固定 pro/con 角色且依赖内部知识的多智能体辩论,(d) 本文提出的 RADAR,通过证据 grounded 角色辩论进行遗漏感知推理。  
网络谣言的迅速蔓延加剧了对可扩展、可靠事实核查系统的需求。尽管大语言模型在识别显性假话上进展显著,一种更微妙且普遍的操控仍难被识别:*半真半假*。半真半假在孤立事实上正确,却因遗漏语境而误导。例如,“某政客任内国债下降 15%”可能属实,却隐瞒了同一任期内先增 20% 的关键背景。这种选择性框架未伪造事实,却扭曲解读,给人工与自动核查带来独特挑战。  

检测半真半假与标准事实核查根本不同。遗漏感知核查不是找显性矛盾,而是要判断现有证据是否不足以支撑声明的隐含结论,需对潜在中间假设而非表层信号进行推理。现实检索场景下证据嘈杂且不完整,挑战更甚:即便检索段落看似支持,也可能漏掉关键背景,导致系统将遗漏式声明误判为真。  

现有事实核查 pipeline 大多未针对此场景设计。如图 1,单智能体方法(包括编码器分类器与指令调优 LLM)对检索证据仅做一次推理,关键语境缺失时易误差累积。多智能体辩论(MAD)框架通过论点交换引入多样性,但其固定 pro/con 角色与专注显性矛盾,使其不擅长“遗漏推理”——核心在于缺失语境而非对立声明。因此,单智能体与常规 MAD 在证据仅部分支持时均难以可靠发现半真半假。近期 TRACER 开始显式研究遗漏感知核查,但其假设可获取黄金证据标注且为单智能体静态推理,限制了现实检索条件下的适用性。  

本文提出 RADAR(Role-Anchored multi-agent Debate for hAlf-tRuth Reasoning),在检索不完整场景下进行遗漏感知事实核查。与依赖固定 pro/con 立场或内部知识的传统辩论不同,RADAR 将核查建模为具有现实专家角色的结构化辩论,所有角色仅基于检索证据推理。*政客*智能体用现有证据构建连贯叙事,*科学家*智能体则追问缺失、薄弱或被选择性呈现的语境,中立*法官*主持讨论并给出最终裁决。  

为提高效率,RADAR 引入双阈值早停控制器,同时监测法官的停止裕度与裁决置信度。一旦信息交换充分,辩论自动结束,避免冗余互动且保持推理深度。通过该自适应机制,RADAR 在可解释性、准确率与计算成本间取得平衡,使遗漏推理在现实核查中更可扩展。  

贡献如下:  
- 针对真实检索场景下的遗漏式半真半假检测,指出从不完整证据中发现缺失语境的挑战。  
- 提出 RADAR,一种角色锚定、检索 grounded 的多智能体推理框架,通过互补辩论揭示缺失语境,并带自适应早停以提升效率。  
- 跨数据集与骨干 LLM 实验表明,RADAR 稳定优于强单智能体与多智能体基线,同时提升准确率与效率。  

## 2 相关工作  

### 2.1 事实核查与半真半假  
事实核查通常被定义为给定检索证据判断声明是否被支持或反驳。大量系统探索检索、推理与解释。Climinator 研究气候领域基于 LLM 的核查;ClaimDecomp 将声明分解为子问题;FIREX 采用“验证或搜索”迭代循环。这些方法对显性谣言有效,但默认误导性声明表现为与证据直接矛盾。  

半真半假违反该假设:声明相对于检索证据可能属实,却因遗漏语境而误导。TRACER 首次通过“关键隐藏证据”概念建模该现象,但其假设可获取黄金证据且为单智能体静态推理。本文则在嘈杂检索下检测遗漏,并通过结构化交互而非一次推理完成。  

### 2.2 多智能体辩论推理  
多智能体辩论(MAD)近期成为提升 LLM 推理与事实性的范式。D2D、TruEDebate 等采用多阶段对话让支持者、质疑者与法官达成真伪判断。然而,大多数 MAD 系统面向矛盾导向核查,智能体围绕声明展开攻防。遗漏式半真半假核心在于缺失语境而非显性冲突。RADAR 因此用互补推理角色取代极性辩论,并将所有交互 grounding 到检索证据,使智能体能揭示“缺席”信息而非仅争论“已述”内容。  

### 2.3 新闻中的遗漏偏见  
Ehrhardt 等通过实体共现检测政治倾向;Zhukova 等用 COSS 框架建模委托、遗漏与信源选择带来的偏见。其他工作探讨修辞操控与宣传框架,或分析区分真实与欺骗报道的语言线索。这些研究多从描述角度分析遗漏,本文则将遗漏形式化为推理与核查任务,旨在检测不完整语境何时导致误导性声明。  

## 3 RADAR 框架  

### 3.1 框架概览  
我们提出 RADAR,一种在真实检索条件下检测遗漏式半真半假的多智能体框架。与依赖一次分类或黄金证据的先前系统不同,RADAR 让角色专精的智能体在检索证据基础上进行审议式推理。如图 2,框架分两阶段:(1) 嘈杂检索下的语境构建,不假设完整性;(2) 角色 grounded 多轮辩论,通过对抗式推理识别缺失语境并判断声明是否误导。  

给定输入声明 c,RADAR 先从背景语料检索 top-m 相关片段构建证据池 E。检索集不可避免地含无关或残缺信息,模拟现实事实核查的不确定性。随后,*政客*、*科学家*与中立*法官*三智能体参与辩论:政客基于现有证据构建有说服力的叙事,代表倡导式推理;科学家则审视证据中的缺失、薄弱或选择性呈现,代表分析式推理。角色名称虽受政治话语启发,其功能行为却与领域无关,旨在捕捉互补推理倾向。法官主持讨论、监控充分性并给出最终裁决。该设计将核查从立场竞争转为遗漏聚焦:一方构建最强证据叙事,另一方挖掘缺失语境。结合共享证据 grounding 与自适应停止,RADAR 可在不完整检索下进行结构化推理。  

表 1:RADAR 中角色与推理风格(说服 vs. 分析)。  

### 3.2 阶段 I:嘈杂检索下的语境构建  
遗漏式误导常因选择性呈现事实而 convincing。为在真实条件下评估声明,RADAR 首先构建一个既具信息量又不完美的检索 grounded 证据池,不要求下游推理假设完整性,而是在不确定性中运作。  

##### 证据检索  
给定声明 c,RADAR 从背景语料检索 top-m 相关片段形成证据池 E = Retrieve(c)。检索固有缺陷,E 可能含无关段落、碎片化事实或仅部分支持的证据。该设置更贴近现实事实核查,需从不完整检索语境推理。不同于假设黄金证据的 TRACER,或主要依赖内部知识的 TED、D2D 等辩论框架。  

##### 共享 grounding  
所有智能体共享同一证据池 E 作为事实基础。辩论中,智能体须用检索证据论证,提升透明度并减少无支持声明。因所有智能体面对相同但不完整证据,其结论差异源于推理而非信息不对等。  

### 3.3 阶段 II:角色 grounded 多轮辩论  
共享语境建立后,RADAR 进行结构化辩论:政客与科学家迭代交换论点,法官主持并评估进展。所有智能体在同一证据池 E 上操作,并遵循固定辩论协议。

相似文章

通过结构化元认知在通用智能体中实现深度推理

arXiv cs.CL

本文介绍了深度推理(Deep Reasoning),这是一种在推理阶段利用结构化元推理为通用智能体构建特定任务脚手架的方法。提出的智能体 Dolores 通过将认知分配到低负载的推理线程中,减少了幻觉并提升了在多个基准测试上的表现,优于现有方法。

面向多模态推理的结构化角色感知策略优化

arXiv cs.AI

本文介绍了结构化角色感知策略优化(SRPO),该方法通过在大视觉-语言模型的强化学习框架内,根据感知和推理的不同角色分配令牌级信用,从而提升多模态推理能力。

赋予角色的大型语言模型表现出类似人类的动机推理

arXiv cs.CL

本文研究了为大语言模型赋予角色是否会引发类似人类的动机推理,发现赋予角色的大语言模型真实性辨别能力最多下降9%,并且以与其诱导的政治身份一致的方式评估科学证据的可能性最多增加90%,而基于提示的去偏见方法基本无效。

RadAgent:用于胸部CT逐步解读的工具型AI代理

Hugging Face Daily Papers

RadAgent是一种使用工具的AI代理,通过可解释的逐步推理生成胸部CT报告,将临床准确率相对提升36.4%,并实现37%的忠实度——这是现有3D视觉语言模型所不具备的能力。该系统提供完全可检查的推理轨迹,使临床医生能够验证和优化诊断输出。