通过迭代放大学习复杂目标

OpenAI Blog 论文

摘要

OpenAI 提出了迭代放大方法,用于训练 AI 系统处理复杂任务,通过递归地将任务分解为人类可以判断和解决的更小子任务,从零开始通过迭代组合构建训练信号。

我们提出了一种名为迭代放大的 AI 安全技术,它使我们能够指定超越人类规模的复杂行为和目标,方法是演示如何将任务分解为更简单的子任务,而不是通过提供标注数据或奖励函数。尽管这个想法仍处于非常早期阶段,我们目前仅在简单的玩具算法领域完成了实验,但我们决定在其初步状态下呈现它,因为我们认为它可能会成为一种可扩展的 AI 安全方法。
查看原文
查看缓存全文

缓存时间: 2026/04/20 14:46

# 通过迭代放大学习复杂目标 来源:https://openai.com/index/learning-complex-goals-with-iterated-amplification/ 迭代放大是一种为后续任务类型生成训练信号的方法,其前提是某些假设成立。具体来说,尽管人类无法直接完成或评判整个任务,但我们假设人类可以在给定任务的一部分时,识别出它所由的清晰的较小组件。例如,在网络计算机示例中,人类可以将"防护一组服务器和路由器"分解为"考虑对服务器的攻击"、"考虑对路由器的攻击"以及"考虑前两种攻击如何相互作用"。此外,我们假设人类可以完成任务的极小实例,比如"识别日志文件中特定行是否可疑"。如果这两个前提成立,那么我们可以利用人类来协调其组合,从小任务的人类训练信号构建大任务的训练信号。 在我们的放大实现中,我们首先采样小型子任务,通过从能够完成这些小任务的人类那里收集演示来训练 AI 系统。然后我们开始采样稍微更大的任务,通过要求人类将这些任务分解成小块来解决这些任务,而这些小块现在可以由前一步训练的 AI 系统来解决。我们使用在人类帮助下获得的这些稍难任务的解决方案,作为训练信号来直接训练 AI 系统解决这第二级任务(无需人类帮助)。然后我们继续处理进一步的复合任务,在此过程中迭代构建训练信号。如果流程有效,最终结果是一个完全自动化的系统,尽管最初没有这些复合任务的直接训练信号,但仍能解决高度复合的任务。这个流程在某种程度上类似于[专家迭代](https://arxiv.org/pdf/1705.08439.pdf)([AlphaGo Zero](https://www.nature.com/articles/nature24270) 中使用的方法),不同之处在于专家迭代强化现有的训练信号,而迭代放大从零开始构建训练信号。它也与[多种](https://arxiv.org/pdf/1807.04640.pdf)[最近的](https://people.eecs.berkeley.edu/~dawnsong/papers/iclr_2017_recursion.pdf)[学习算法](https://arxiv.org/abs/1611.02401)有共同点,这些算法在测试时使用即时问题分解来解决问题,但不同之处在于它在没有先前训练信号的设置中运作。

相似文章

学习层级结构

OpenAI Blog

OpenAI 研究提出分层强化学习方法,其中智能体将复杂任务分解为高级操作序列而非低级操作,通过将搜索复杂度从数千步降低到数十步,显著提高长视野任务的效率。

从人类偏好中学习

OpenAI Blog

OpenAI 提出了一种使用人类偏好反馈训练 AI 智能体的方法,智能体通过人类对行为轨迹的比较来学习奖励函数,并使用强化学习来优化推断的目标。该方法展示了很强的样本效率,需要少于 1000 比特的人类反馈就能训练智能体完成后翻。

学习交流

OpenAI Blog

OpenAI研究人员演示了协作型AI代理可以通过在简单世界中进行强化学习,发展出自己的有根据的和组合型语言。这些代理通过获得需要协调的目标奖励来学习交流,创建共享的符号语言以协调行为。

为 AGI 及其未来做好准备

OpenAI Blog

OpenAI 阐述了为 AGI 做准备的战略,强调通过真实世界反馈循环进行渐进式部署,随着系统接近 AGI 能力而提高谨慎程度,以及开发更好的对齐技术以确保 AI 系统保持可控和安全。

认知放大器:争夺你大脑的战斗已经打响

Reddit r/singularity

本文认为,人工智能充当着“认知放大器”的角色,将瓶颈从执行层面转移至想象力层面,并形成一种可能导致人类意图与机器智能融合的反馈循环。文章强调,保持这些系统的开放性和广泛可用性至关重要,而非将其集中化。