llm-hallucination

标签

Cards List
#llm-hallucination

Marc Andreessen 因意外暴露对AI实际运作的深层误解而遭到嘲讽

Reddit r/artificial · 2天前 缓存

Marc Andreessen 在分享一个自定义 AI 提示词后遭到网友嘲讽,该提示词暴露出他对大型语言模型的工作原理存在根本性误解,尤其是在幻觉和知识限制方面。

0 人收藏 0 人点赞
#llm-hallucination

知即建构:面向智能体记忆的模式约束生成

arXiv cs.CL · 2026-04-23 缓存

银联研究人员提出 SCG-MEM,一种模式约束的生成式记忆架构,通过强制 LLM 仅在动态认知模式内解码有效记忆键,消除结构性幻觉,在 LoCoMo 基准上全面超越稠密检索基线。

0 人收藏 0 人点赞
#llm-hallucination

理解LLM中新知识诱导的事实幻觉:分析与解释

arXiv cs.CL · 2026-04-20 缓存

本论文探究了在新知识上微调LLM如何诱导事实幻觉,研究表明特定知识类型内的陌生性通过削弱对关键实体的注意力来驱动幻觉。作者提议通过在后期训练阶段重新引入已知知识来缓解这一问题。

0 人收藏 0 人点赞
#llm-hallucination

大语言模型真的知道自己不知道什么吗?内部状态主要反映知识回忆而非真实性

arXiv cs.CL · 2026-04-20 缓存

本文质疑了大语言模型能够通过内部信号可靠区分幻觉输出和事实输出的假设,论证内部状态主要反映知识回忆而非真实性。作者提出了一套幻觉分类法(相关性幻觉与非相关性幻觉),并证明相关性幻觉的隐藏状态几何特性与事实输出重叠,使得标准检测方法失效。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈