无论你的定义是什么,如果你认为我们现在拥有的是AGI,那么你的定义就是最宽松、最弱的“AGI”概念
摘要
认为当前AI不符合AGI标准,因为它缺乏递归自我改进,并批评那些声称相反的人拥有一个薄弱的AGI定义。
我看到一些人拼命宣称我们现在拥有的是AGI。如果AI无法在没有人类监督和干预的情况下进行RSI或自我改进,那么你的AGI将永远无法实现奇点,甚至无法自我改进。这里有些人甚至相信谷歌和Claude开发者说的“AI正在编写我们的代码”是一种RSI形式,因此就是“AGI”。不,那不是RSI。如果你认为AGI已经到来,你的“AGI”永远无法创造ASI或带来奇点。你的“AGI”甚至无法在ARC AGI 3上取得好的基准测试结果,也无法在没有大量辅助工具或训练数据的情况下玩Minecraft。如果你的AGI定义已经实现,那么你的AGI定义一直都是薄弱的,或者你已经把目标移到了一个更薄弱的AGI定义上。我尽可能地支持AI,但我不会幻想我们现在拥有的某种AI能够创造ASI或奇点。
相似文章
AGI、Anthropic 与「不的系统」
本文介绍了「不的系统」作为评估通用人工智能的框架,强调区分、拒绝和管辖权而非模仿人类。它以 Anthropic 的 Claude Mythos 为例,突显先进 AI 的双重用途风险——能力跨越到后果,并批评当前安全政策可能成为虚假治理。
耶鲁大学伦理学家温德尔·沃拉奇(Wendell Wallach)论为何AGI是错误目标,以及当前系统中已存在的问责缺口。
耶鲁大学伦理学家温德尔·沃拉奇认为,与当前AI系统(特别是自主武器和分布式责任方面)亟需建立问责制相比,追求AGI(通用人工智能)是舍本逐末。
AGI 🚀
本文提及 AGI(通用人工智能),可能是一篇关于 AGI 进展或相关推测的简短帖子或公告,除标题外可获取的内容有限。
你认为能让家庭机器人完成90%家务需要通用人工智能(AGI)吗?
文章探讨了要使能够完成大多数家务的家庭机器人得到广泛普及,是否必须依赖通用人工智能(AGI),同时表达了对于目前先进的机器人操作在很大程度上仍然依赖远程操控的失望之情。
衡量通向AGI的进展:一个认知框架
Google DeepMind发布了一篇论文,提出了一个衡量通向通用人工智能(AGI)进展的认知框架,识别了十项关键认知能力,并发起了一场Kaggle黑客马拉松以构建相关评估方法。