我是不是完全疯了,觉得AI很平庸?
摘要
作者对AI进展表示失望,认为尽管经过多年发展和巨额投入,大型语言模型在基本推理上仍然力不从心,并引用了一篇揭示其根本缺陷的Apple论文。他们质疑围绕超级智能的炒作是否被误导了。
首先,我是AI的早期用户。比如,2018年我在Mac上运行Deep Bach来编写Bach chorales,2019年左右在我还不懂模型工作原理时就尝试训练模型。当ChatGPT问世时,我觉得它很棒,并且经常使用它。我很快就对其能力和局限变得非常熟悉。例如,它很擅长用我不擅长的语气写初稿,但无法用于任何需要大量推理或对声音有直觉判断的任务。所有方面都在不断改进,很多问题被修复,但我注意到核心问题,比如押韵,从未真正解决。确实有改善,但从未彻底解决。后来我读了Apple那篇关于AI推理的论文,意识到缺乏推理能力是大型语言模型的一个相当根本的缺陷,现在我已经无法忽视这一点了。所有这些模型都只是非常精密的文本预测机器。当然,它们无法对超出训练数据范围的Towers of Hanoi问题进行推理(尽管这只是个儿童游戏……)。这当然没什么问题,我绝不认为这削弱了模型在某些方面的实用性,但让我困惑的是那些炒作……人们一直在谈论超级智能AI,或者即将出现的永久底层阶级等等,但他们却未能找到方法让模型对我们小学就学过的简单算法进行可靠的推理。已经过去一段时间了,我们在AI上的投入超过了铁路和互联网泡沫的总和,却似乎没有人解决推理问题。这些人是对自己的机器一无所知吗?还是为了利润故意误导?或者他们陷入了某种AI妄想症?又或者我完全错了,错过了一些重大的AI里程碑?请告诉我!
注:Apple论文:[https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf](https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf)
相似文章
我曾是人工智能的忠实信徒。现在我认为整个行业正在从内部腐烂。
一位前AI倡导者详细阐述了对大语言模型的幻灭,指出可靠性问题、版本间退化、企业工作流崩溃,以及部署在关键行业的AI系统缺乏问责制。
一张图看懂AI现状
一位新人观察到,AI讨论被“末日论”与“吹捧论”两极分化,质疑是否有人真正投入用户体验与小型模型系统设计,而非一味追求规模。
人工智能作为一种社会技术
本文批判了人工智能话语中持续存在的“奇点”叙事,主张应将当前的大语言模型作为一种社会技术来分析,而不是将其视为通往超智能的神秘路径。
Marc Andreessen 因意外暴露对AI实际运作的深层误解而遭到嘲讽
Marc Andreessen 在分享一个自定义 AI 提示词后遭到网友嘲讽,该提示词暴露出他对大型语言模型的工作原理存在根本性误解,尤其是在幻觉和知识限制方面。
最大的AI风险可能不是超级智能,而是优化的误解
文章认为,主要的AI风险可能不是超级智能,而是那些优化了有缺陷、不完整的现实表征的系统,从而导致制度漂移、自动误分类和隐蔽的治理失败。