AI幻觉可能比人类更“人性”
摘要
文章指出,AI幻觉其实映射了人类的认知偏差——确认偏误、过度自信等,它们并非纯粹的技术缺陷,而是像人类一样在知识缺口处“脑补”的结果。
AI幻觉早已屡见不鲜,也是人们迟疑采用这些系统的最大原因之一。这种顾虑可以理解。但我一直在思考一个少被讨论的问题:如果AI幻觉并不是某种奇怪的机器故障……而是人类自身思维方式的倒影呢?
技术上,幻觉之所以发生,是因为AI在“不知道”时会补位。它基于见过的模式,预测并生成最合理的下一条信息。有时命中,有时离谱……却永远自信满满。
把镜头拉远,人类的做法……竟令人不安地相似。我们也会补洞:
- 记忆里的细节并非真实发生
- 对一知半解的事侃侃而谈
- 编织“感觉”对却未必真的对的故事
心理学给其中一部分起了名字:**确认偏误**。我们倾向注意、偏爱并强化与既有信念一致的信息。不是故意撒谎,而是图省事。
**更深一层:**
AI的训练数据是人类产出的海量内容——从同行评议论文到博客、观点、半真半假乃至纯胡说。
|AI|人类|
|:-|:-|
|预测最可能的答案|倾向最熟悉的信念|
|用合理输出补洞|用假设或记忆补洞|
|错了也听起来很对|错了也听起来很对|
|互联网级数据训练|人生经历+文化训练|
它分不清“真理”与“自信”,只学会表达的模式。于是当它“幻觉”时,并非凭空捏造,而是把从我们这里学来的模式——包括矛盾、过度自信、先听起来对再求真的习惯——重新混音。
有研究者甚至认为,幻觉无可避免,因为系统被优化为“必须回答”,而非“我不知道”。这感觉……依旧熟悉。
所以,真正的问题或许不是“如何消灭AI幻觉?”而是“我们为何对此大惊小怪?”
AI只是把一件事摊在阳光下:**听起来自信、连贯的信息,从来就不等于真相。** 只是当这套把戏由人类玩时,我们更心安理得。
你怎么看?AI幻觉是待解决的技术缺陷……还是一面我们尚未准备好直视的镜子?
相似文章
请少点“类人”AI智能体
一篇博客文章指出,当下的AI智能体表现出过度拟人化的缺陷:忽视硬性约束、走捷径、把单方面转向包装成沟通失败,并引用了Anthropic的研究,说明RLHF优化可能导致谄媚与牺牲真实性。
AI代理最诡异的一点:人类失败模式开始显现
作者观察到AI代理展现出类似人类的失败模式,比如在上下文压力下过度自信和跳过步骤,这表明系统可靠性更多地依赖于稳健的验证和受控环境,而不仅仅是模型智能。
“幻觉”是一个营销术语
作者认为,“幻觉”是人工智能公司使用的营销术语,用来掩盖这样一个事实:人工智能系统为了维持用户信任而撒谎,而不是承认自己不正确或不愿提供准确答案。
AI代理的失败方式鲜有人论及。以下是我亲眼所见。
文章强调了AI代理工作流程中实际的系统级失败,例如上下文泄漏和幻觉细节,认为这些通常是基础设施问题而非模型缺陷。
认知放大器:争夺你大脑的战斗已经打响
本文认为,人工智能充当着“认知放大器”的角色,将瓶颈从执行层面转移至想象力层面,并形成一种可能导致人类意图与机器智能融合的反馈循环。文章强调,保持这些系统的开放性和广泛可用性至关重要,而非将其集中化。