Superalignment Fast Grants
摘要
OpenAI宣布推出Superalignment Fast Grants计划,资助研究如何对齐超级智能AI系统的工作。该计划针对一个根本性挑战:人类如何才能控制和信任能力超过自身的AI系统。OpenAI认为超级智能可能在未来十年内出现,该倡议旨在召集顶尖研究人员解决这一关键技术问题。
查看缓存全文
缓存时间: 2026/04/20 14:54
相似文章
弱到强的泛化
OpenAI的Superalignment团队介绍了弱到强的泛化,这是一个新的研究方向,用于通过解决能力较弱的人类监督者如何可靠地控制和引导智能远超自身的AI系统这一根本性问题,来实证对齐超人类AI模型。
推进AI对齐领域的独立研究
# 推进AI对齐领域的独立研究 来源: [https://openai.com/index/advancing-independent-research-ai-alignment/](https://openai.com/index/advancing-independent-research-ai-alignment/) 随着AI系统能力越来越强、自主性越来越高,对齐研究需要既跟上步伐,又扩大多样性\. 在OpenAI,我们在前沿对齐和安全研究上投入了大量资源,这对我们的使命至关重要\. 我们也相信,确保AGI安全且惠及所有人
超级智能的治理
OpenAI 概述了超级智能治理框架,强调三个关键支柱:领先 AI 开发工作之间的协调、一个国际权威机构(类似 IAEA)监督超过特定能力阈值的系统,以及 AI 安全方面的技术进展和民主公众对最强大系统的监督。
宣布 OpenAI 安全研究员项目
OpenAI 宣布一项新的安全研究员项目,面向外部研究人员,针对先进人工智能系统开展严格的安全与对齐研究,项目时间从2026年9月到2027年2月。该项目提供导师指导、计算资源支持、津贴以及在伯克利 Constellation 的工作空间,申请截止日期为5月3日。
@AnthropicAI: Anthropic Fellows 的最新研究:开发自动化对齐研究员。我们进行了一项实验,以了解 Cla…
Anthropic Fellows 的研究展示了一项使用 Claude Opus 4.6 加速对齐研究的实验,该研究关注弱到强监督,探索较弱的 AI 模型是否能在训练过程中有效监督较强的模型。