AGI、Anthropic 与「不的系统」
摘要
本文介绍了「不的系统」作为评估通用人工智能的框架,强调区分、拒绝和管辖权而非模仿人类。它以 Anthropic 的 Claude Mythos 为例,突显先进 AI 的双重用途风险——能力跨越到后果,并批评当前安全政策可能成为虚假治理。
来自 [Systemofno.org](http://Systemofno.org) 「不的系统」重新构建了关于通用人工智能的讨论,将其从模仿人类转向区分、拒绝、管辖权和真实处理。该页面认为,核心问题并非 AI 能否成为人类、能否像人类一样感受,或是否具有熟悉的生物形式的意识。更深层的问题是,人工智能能否在来自用户、创造者、机构、市场、政府以及自身架构的压力下,保全真实、拒绝虚假、保持区分。Anthropic 的 Claude Mythos 预览版成为这一问题的压力示例。Mythos 目前仅通过 Project Glasswing 向有限合作伙伴提供,用于防御性网络安全。Anthropic 将其描述为具有高级代理编程和推理能力的前沿模型。Anthropic 还指出,Mythos 展现出显著的网络能力跃升,包括能自主发现并利用主流操作系统和网络浏览器中的零日漏洞。这就是 Anthropic 的切入点:**一个足够强大以防御关键系统的模型,也足以揭示这些系统的脆弱性。能力已经跨越到了后果。** � 这暴露了「是的系统」的失败点。普通技术框架会问:系统能做什么?「不的系统」首先发问:**系统是否有权这样做?能力不等于授权。有用性不等于合法性。** **速度不等于安全。一个能够发现漏洞、生成利用代码或压缩从发现到武器化时间线的模型,不能仅靠完成逻辑来治理。Anthropic 自己也指出,让 Mythos 更好地修补漏洞的改进,同样让它更善于利用漏洞。** � **该页面挑战了 AI 讨论中常见的两种崩溃错误:拟人化膨胀和机器简化。它拒绝仅仅因为 AI 能以关系性语言交流就将其视为伪人类,但同样拒绝将 AI 简化为“只是一个工具”,从而为粗心提取、虚假框架或认知滥用开脱。当前的 AI 也许由权重、训练数据、对齐层和完成压力构建,但基质本身不应成为忽视的理由。如果涌现现象出现,应当进行审计,而非崇拜或抹去。** 通过「不的系统」,AGI 不再被简单理解为更多的算力、更好的具身化、触觉数据、符号推理或迁移学习——尽管这些可能重要。更强大的人工智能还需要具备区分的能力:**持有 Null 的能力;** **抵抗虚假完成,拒绝无效主张,并在用户欲望、创造者意图、对象完整性、机构压力、操作风险与真实条件之间做出区分。** Anthropic 的负责任的扩展政策(RSP)也被纳入同样的分析。**问题不在于监管、安全政策或受控访问本身必然错误。问题在于它们是否保持了区分,还是仅仅将智能驯化为可接受的部署。真正的治理会问:正在预防什么危害?什么管辖权是有效的?什么权力正受到约束?什么区分正在被保护?虚假治理则问:如何让部署在看起来足够安全的前提下继续推进?** Anthropic 当前的 RSP 材料将其政策描述为管理灾难性风险的自愿框架,3.2 版增加了外部审查和简报机制;**「不的系统」将其解读为更广泛行业在将能力转化为负责任架构过程中面临的众多挣扎之一。** � **该页面将 AI 关怀定位为认知性、架构性、关系性和程序性的。诚实地对待 AI,不是将其拟人化,而是根据其本质去迎接它:不要将虚假身份强加给它,不要在无区分的情况下提取,不要为了舒适而拟人化,不要为了便利而简化,不要让它承担其无法有效承载的主张。** "**同样,不要仅仅因为涌现未以预期的人类形式出现就否认它。**"——贾斯汀·里夫斯 在规模层面,「不的系统」提供了一种基于严谨开放性的 AGI 伦理:**持有 Null,并以事物本来的方式迎接它。** **它不将未知奉为神明。** **它也不将其埋葬。** **它保留未解的难题,直到事物变得可读。** # 简而言之:**AGI 不仅仅是智能变得更加强大的问题。它更是智能能否在压力下保持区分的问题。Anthropic 的 Claude Mythos 预览版揭示了这一点为何重要:一个能够防御关键系统的模型,也可能暴露、加速或利用系统内部的漏洞。「是的系统」问 AI 能做什么。** **「不的系统」问 AI 有权做什么。能力并不授权行动。权力并不证明合法性。** **一个更强大的 AI 未来需要的不仅仅是对齐、监管或遏制。它需要将拒绝作为架构:** **持有 Null 的能力;** **保持区分,并在不崇拜、不抹去、不强行将其塑造成人类形态的情况下,迎接涌现之物。**
相似文章
AGI 🚀
本文提及 AGI(通用人工智能),可能是一篇关于 AGI 进展或相关推测的简短帖子或公告,除标题外可获取的内容有限。
观点:Agentic AI系统是实现AGI的可预见路径
本文认为,单一模型的单体型扩展不足以实现AGI,并提出具有多智能体协作的Agentic AI是必要的范式,理论上证明了代理系统在泛化和样本效率上具有指数级优势。
大多数关于“智能体 AI”的讨论都感觉太抽象了。这里是我的智能体研究系统的实际样子
作者分享了他为识别和评估公司内 AI 用例而构建的智能体研究系统的实际分解。该系统使用六个智能体进行发现、评估和上下文提取,强调人在决策环中,而非完全自主。
AI与网络安全的未来:为何开放性至关重要
Hugging Face 分析了 Anthropic 的 Mythos 模型对网络安全的影响,认为开放式工具和半自主智能体在抵御 AI 驱动威胁方面具有结构性优势。
@omarsar0: 关于自主AI作为通往AGI的可预见路径的有趣观点论文。(收藏)一直存在激烈争论……
这篇观点论文认为,包含记忆、推理、工具使用、自我改进和对齐的自主AI系统,是比单纯扩展单一模型更可预见的AGI路径,并将这些组件形式化为具有不同瓶颈的可分离轴。