Superalignment Fast Grants

OpenAI Blog 新闻

摘要

OpenAI宣布推出Superalignment Fast Grants计划,资助研究如何对齐超级智能AI系统的工作。该计划针对一个根本性挑战:人类如何才能控制和信任能力超过自身的AI系统。OpenAI认为超级智能可能在未来十年内出现,该倡议旨在召集顶尖研究人员解决这一关键技术问题。

我们推出1000万美元的赠款计划,用于支持超人类AI系统的对齐和安全方面的技术研究,包括弱到强泛化、可解释性、可扩展监督等多个方向。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:54

# 超级对齐快速资助 来源:https://openai.com/index/superalignment-fast-grants/ 我们相信超级智能可能在未来10年内出现。这些AI系统将具有广泛的能力——可能带来巨大益处,但也可能构成很大风险。 目前,我们使用强化学习从人类反馈(RLHF)来[对齐AI系统](https://openai.com/index/instruction-following/),以确保它们是安全的。然而,对齐未来的超人类AI系统将带来根本上新的、质上不同的技术挑战。 超人类AI系统将能够执行人类无法完全理解的复杂和创意行为。例如,如果超人类模型生成了一百万行极其复杂的代码,人类将无法可靠地评估该代码执行是否安全或危险。现有的依赖人类监督的对齐技术(如RLHF)可能不再足够。**这引出了一个根本性挑战:人类如何引导和信任比自己聪明得多的AI系统?** 这是世界上最重要的未解决技术问题之一。但我们认为通过协同努力,这个问题是可以解决的。有许多有前景的方法和令人兴奋的方向,存在很多低垂果实。我们认为ML研究社区和个人研究者有巨大机会,可以在今天就在这个问题上取得重大进展。 作为我们[超级对齐](https://openai.com/superalignment/)项目的一部分,我们希望汇集世界上最优秀的研究人员和工程师来应对这一挑战——我们特别期待将新人才引入这个领域。

相似文章

弱到强的泛化

OpenAI Blog

OpenAI的Superalignment团队介绍了弱到强的泛化,这是一个新的研究方向,用于通过解决能力较弱的人类监督者如何可靠地控制和引导智能远超自身的AI系统这一根本性问题,来实证对齐超人类AI模型。

推进AI对齐领域的独立研究

OpenAI Blog

# 推进AI对齐领域的独立研究 来源: [https://openai.com/index/advancing-independent-research-ai-alignment/](https://openai.com/index/advancing-independent-research-ai-alignment/) 随着AI系统能力越来越强、自主性越来越高,对齐研究需要既跟上步伐,又扩大多样性\. 在OpenAI,我们在前沿对齐和安全研究上投入了大量资源,这对我们的使命至关重要\. 我们也相信,确保AGI安全且惠及所有人

超级智能的治理

OpenAI Blog

OpenAI 概述了超级智能治理框架,强调三个关键支柱:领先 AI 开发工作之间的协调、一个国际权威机构(类似 IAEA)监督超过特定能力阈值的系统,以及 AI 安全方面的技术进展和民主公众对最强大系统的监督。

宣布 OpenAI 安全研究员项目

OpenAI Blog

OpenAI 宣布一项新的安全研究员项目,面向外部研究人员,针对先进人工智能系统开展严格的安全与对齐研究,项目时间从2026年9月到2027年2月。该项目提供导师指导、计算资源支持、津贴以及在伯克利 Constellation 的工作空间,申请截止日期为5月3日。