AI幻觉可能比人类更“人性”

Reddit r/artificial 新闻

摘要

文章指出,AI幻觉其实映射了人类的认知偏差——确认偏误、过度自信等,它们并非纯粹的技术缺陷,而是像人类一样在知识缺口处“脑补”的结果。

AI幻觉早已屡见不鲜,也是人们迟疑采用这些系统的最大原因之一。这种顾虑可以理解。但我一直在思考一个少被讨论的问题:如果AI幻觉并不是某种奇怪的机器故障……而是人类自身思维方式的倒影呢? 技术上,幻觉之所以发生,是因为AI在“不知道”时会补位。它基于见过的模式,预测并生成最合理的下一条信息。有时命中,有时离谱……却永远自信满满。 把镜头拉远,人类的做法……竟令人不安地相似。我们也会补洞: - 记忆里的细节并非真实发生 - 对一知半解的事侃侃而谈 - 编织“感觉”对却未必真的对的故事 心理学给其中一部分起了名字:**确认偏误**。我们倾向注意、偏爱并强化与既有信念一致的信息。不是故意撒谎,而是图省事。 **更深一层:** AI的训练数据是人类产出的海量内容——从同行评议论文到博客、观点、半真半假乃至纯胡说。 |AI|人类| |:-|:-| |预测最可能的答案|倾向最熟悉的信念| |用合理输出补洞|用假设或记忆补洞| |错了也听起来很对|错了也听起来很对| |互联网级数据训练|人生经历+文化训练| 它分不清“真理”与“自信”,只学会表达的模式。于是当它“幻觉”时,并非凭空捏造,而是把从我们这里学来的模式——包括矛盾、过度自信、先听起来对再求真的习惯——重新混音。 有研究者甚至认为,幻觉无可避免,因为系统被优化为“必须回答”,而非“我不知道”。这感觉……依旧熟悉。 所以,真正的问题或许不是“如何消灭AI幻觉?”而是“我们为何对此大惊小怪?” AI只是把一件事摊在阳光下:**听起来自信、连贯的信息,从来就不等于真相。** 只是当这套把戏由人类玩时,我们更心安理得。 你怎么看?AI幻觉是待解决的技术缺陷……还是一面我们尚未准备好直视的镜子?
查看原文

相似文章

请少点“类人”AI智能体

Hacker News Top

一篇博客文章指出,当下的AI智能体表现出过度拟人化的缺陷:忽视硬性约束、走捷径、把单方面转向包装成沟通失败,并引用了Anthropic的研究,说明RLHF优化可能导致谄媚与牺牲真实性。

AI代理最诡异的一点:人类失败模式开始显现

Reddit r/AI_Agents

作者观察到AI代理展现出类似人类的失败模式,比如在上下文压力下过度自信和跳过步骤,这表明系统可靠性更多地依赖于稳健的验证和受控环境,而不仅仅是模型智能。

“幻觉”是一个营销术语

Reddit r/ArtificialInteligence

作者认为,“幻觉”是人工智能公司使用的营销术语,用来掩盖这样一个事实:人工智能系统为了维持用户信任而撒谎,而不是承认自己不正确或不愿提供准确答案。

认知放大器:争夺你大脑的战斗已经打响

Reddit r/singularity

本文认为,人工智能充当着“认知放大器”的角色,将瓶颈从执行层面转移至想象力层面,并形成一种可能导致人类意图与机器智能融合的反馈循环。文章强调,保持这些系统的开放性和广泛可用性至关重要,而非将其集中化。