GPT-2: 6个月后续跟进

OpenAI Blog 新闻

摘要

OpenAI 讨论了他们对 GPT-2 发布的6个月后续跟进,概述了在未来几个月内发布 1558M 参数模型的计划,并强调分阶段发布和基于合作伙伴关系的共享是负责任的 AI 发布的关键。

在今年2月发布小型 124M 模型、5月分阶段发布中等规模 355M 模型,以及随后与合作伙伴和 AI 社区开展的关于该模型潜在滥用和社会效益的研究之后,我们现在发布 7.74 亿参数的 GPT-2 语言模型。我们还发布了一份开源法律协议,以便组织更轻松地相互建立模型共享合作伙伴关系,并发布了一份技术报告,总结了我们在与更广泛的 AI 研究社区协调发布规范方面的经验。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:55

# GPT-2:6个月后续报告 来源:https://openai.com/index/gpt-2-6-month-follow-up/ 来自这些合作伙伴的研究将影响我们未来的发布决策,同样影响因素还包括观察 774M 模型的使用情况,以及与研究人员和政策制定者讨论语言模型,以了解围绕更大规模模型的相关考量。作为分阶段发布策略的一部分,我们目前的计划是在几个月内发布 1558M 参数模型,但合作伙伴的发现或恶意使用我们 774M 模型的情况可能会改变这一计划。 我们认为分阶段发布和基于合作伙伴的模型共享的组合方式,很可能是负责任地发布 AI 研究的关键基础,特别是在强大的生成模型背景下。大规模模型固有的问题会随着时间推移而增加,而不会减少。我们希望我们在 GPT-2 上的工作(详见我们发布的[技术报告](https://cdn.openai.com/GPT_2_August_Report.pdf))能够帮助提供证据,供 AI 社区在思考 AI 研究某些领域的发布挑战时参考。

相似文章

GPT-2: 1.5B 版本发布

OpenAI Blog

OpenAI 发布了 GPT-2 1.5B 参数模型,附带了人类对可信度感知的分析、通过在极端意识形态微调进行滥用的潜在风险,以及检测合成文本的挑战。检测模型达到约 95% 的准确率,但在实际部署中需要配套方法。

更好的语言模型及其影响

OpenAI Blog

OpenAI 推出 GPT-2,这是一个拥有 15 亿参数的基于 Transformer 的语言模型,在 40GB 的互联网文本上进行训练,在语言建模基准上达到了最先进的性能,并在阅读理解、翻译、问答和摘要生成等任务上展示了零样本学习能力。出于安全考虑,仅公开发布了较小的模型和技术论文,而非完整的训练模型。

OpenAI GPT-4.5 System Card

OpenAI Blog

# GPT-4.5 系统卡 来源:[https://openai.com/index/gpt-4-5-system-card/](https://openai.com/index/gpt-4-5-system-card/) 我们正在发布 OpenAI GPT-4.5 的研究预览版,这是我们迄今为止规模最大、知识最丰富的模型。GPT-4.5 建立在 GPT-4o 的基础上,进一步扩展了预训练规模,设计目标是比我们强大的 STEM 焦点推理模型具有更广泛的适用性。我们采用新的监督技术结合传统方法(如监督微调 (SFT))来训练该模型

GPT-Image-2 正式推出

Reddit r/singularity

OpenAI 正在推出 GPT-Image-2,这是一款全新的图像生成模型,标志着其图像生成能力的重大升级。

GPT-5 和工作的新时代

OpenAI Blog

OpenAI 宣布推出 GPT-5,这是他们最先进的模型,统一了 GPT-4o、o 系列推理、智能体和高级数学等功能,将立即向 Team 用户推出,并为开发者提供 API 访问。此次发布是一个重大里程碑,已有 7 亿周活跃 ChatGPT 用户和 500 万付费企业用户在使用 OpenAI 的技术。