hallucination-mitigation

标签

Cards List
#hallucination-mitigation

MeasHalu:通过增强推理缓解大语言模型的科学测量幻觉

arXiv cs.CL · 2026-04-21 缓存

# MeasHalu:通过增强推理缓解大语言模型的科学测量幻觉 来源:[https://arxiv.org/html/2604.16929](https://arxiv.org/html/2604.16929) Ruijun Huang1,Zhiqiao Kang1,Yuxuan Zhu1,Junxiong Li1,Jiahao Zhao1, Minghuan Tan1,Feng Jiang211footnotemark:1,Min Yang1 1 中国科学院深圳先进技术研究院高性能数据挖掘深圳市重点实验室 2 深圳大学人工智能研究院

0 人收藏 0 人点赞
#hallucination-mitigation

智慧在于知道何时沉默:通过注意力转移实现无幻觉的大语言模型遗忘

arXiv cs.CL · 2026-04-20 缓存

本论文引入注意力转移(Attention-Shifting, AS)框架,用于大语言模型的选择性机器遗忘,在有效移除敏感信息与防止幻觉和保持模型性能之间取得平衡。该方法采用重要性感知的注意力抑制和保留增强机制,在标准基准上相比现有遗忘方法实现了高达15%的准确度保持率提升。

0 人收藏 0 人点赞
#hallucination-mitigation

FineSteer: 大规模语言模型推理时细粒度控制的统一框架

arXiv cs.CL · 2026-04-20 缓存

FineSteer 是一个新颖的推理时控制框架,将控制分解为条件控制和细粒度向量合成两个阶段,采用子空间引导条件控制(SCS)和混合控制专家(MoSE)机制来提高安全性和真实性,同时保持模型效用。实验表明在 TruthfulQA 上相比最新方法有 7.6% 的性能提升,且效用损失最小。

0 人收藏 0 人点赞
#hallucination-mitigation

通过分阶段自奖励缓解多模态幻觉

Hugging Face Daily Papers · 2026-04-20 缓存

PSRD 框架通过分阶段自奖励解码和蒸馏轻量奖励模型,无需额外监督即可将 LVLM 的多模态幻觉降低一半。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈