我是不是完全疯了,觉得AI很平庸?

Reddit r/ArtificialInteligence 新闻

摘要

作者对AI进展表示失望,认为尽管经过多年发展和巨额投入,大型语言模型在基本推理上仍然力不从心,并引用了一篇揭示其根本缺陷的Apple论文。他们质疑围绕超级智能的炒作是否被误导了。

首先,我是AI的早期用户。比如,2018年我在Mac上运行Deep Bach来编写Bach chorales,2019年左右在我还不懂模型工作原理时就尝试训练模型。当ChatGPT问世时,我觉得它很棒,并且经常使用它。我很快就对其能力和局限变得非常熟悉。例如,它很擅长用我不擅长的语气写初稿,但无法用于任何需要大量推理或对声音有直觉判断的任务。所有方面都在不断改进,很多问题被修复,但我注意到核心问题,比如押韵,从未真正解决。确实有改善,但从未彻底解决。后来我读了Apple那篇关于AI推理的论文,意识到缺乏推理能力是大型语言模型的一个相当根本的缺陷,现在我已经无法忽视这一点了。所有这些模型都只是非常精密的文本预测机器。当然,它们无法对超出训练数据范围的Towers of Hanoi问题进行推理(尽管这只是个儿童游戏……)。这当然没什么问题,我绝不认为这削弱了模型在某些方面的实用性,但让我困惑的是那些炒作……人们一直在谈论超级智能AI,或者即将出现的永久底层阶级等等,但他们却未能找到方法让模型对我们小学就学过的简单算法进行可靠的推理。已经过去一段时间了,我们在AI上的投入超过了铁路和互联网泡沫的总和,却似乎没有人解决推理问题。这些人是对自己的机器一无所知吗?还是为了利润故意误导?或者他们陷入了某种AI妄想症?又或者我完全错了,错过了一些重大的AI里程碑?请告诉我! 注:Apple论文:[https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf](https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf)
查看原文

相似文章

一张图看懂AI现状

Reddit r/artificial

一位新人观察到,AI讨论被“末日论”与“吹捧论”两极分化,质疑是否有人真正投入用户体验与小型模型系统设计,而非一味追求规模。

人工智能作为一种社会技术

Lobsters Hottest

本文批判了人工智能话语中持续存在的“奇点”叙事,主张应将当前的大语言模型作为一种社会技术来分析,而不是将其视为通往超智能的神秘路径。