为您的应用自定义 GPT-3

OpenAI Blog 产品

摘要

# 为您的应用自定义 GPT-3 来源:[https://openai.com/index/customizing-gpt-3/](https://openai.com/index/customizing-gpt-3/) OpenAI使用单条命令进行微调。开发者现在可以在自己的数据上对 GPT-3 进行微调,创建针对其应用定制的版本。自定义使 GPT-3 能够可靠地支持更广泛的用例,并使模型运行更便宜、更快。您可以使用任何形状和大小的现有数据集,或逐步添加数据

使用单条命令进行微调。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:55

# 为您的应用定制 GPT-3 来源: https://openai.com/index/customizing-gpt-3/ OpenAI 用一条命令进行微调。 开发者现在可以在自己的数据上对 GPT-3 进行微调,创建为其应用量身定制的版本。定制使 GPT-3 在更广泛的用例中更加可靠,并使运行模型成本更低、速度更快。 您可以使用几乎任何形状和大小的现有数据集,或根据用户反馈逐步添加数据。通过微调,一个 API 客户能够将正确输出从 83% 提高到 95%。另一个客户通过每周从其产品中添加新数据,将错误率降低了 50%。 要开始使用,只需在 OpenAI 命令行工具中运行一条命令并提供一个文件。您的自定义版本将开始训练,然后立即在我们的 API 中可用。 使用少于 100 个示例就能开始看到 GPT-3 微调的好处,随着您添加更多数据,性能会继续提升。在去年 6 月发表的研究(https://openai.com/index/improving-language-model-behavior/)中,我们展示了使用少于 100 个示例的微调如何可以改进 GPT-3 在某些任务上的性能。我们还发现,示例数量每翻倍往往会使质量线性改进。 在我们最具挑战性的研究数据集之一(小学数学问题(https://openai.com/index/grade-school-math/))上,GPT-3 的微调相比提示设计能提高 2 到 4 倍的准确率。 定制 GPT-3 提高了输出的可靠性,提供了更一致的结果,可用于生产环境。一个客户发现定制 GPT-3 将不可靠输出的频率从 17% 降低到 5%。由于 GPT-3 的自定义版本是为您的应用量身定制的,提示可以短得多,从而降低成本并改进延迟。 无论是文本生成、摘要、分类或 GPT-3 能够执行的任何其他自然语言任务,定制 GPT-3 都会改进性能。 Keeper Tax 移动界面(使用定制后的 GPT-3) **Keeper Tax** 帮助独立承包商和自由职业者处理税务。客户链接其财务账户后,Keeper Tax 使用各种模型提取文本并分类交易。利用分类数据,Keeper Tax 识别容易被遗漏的税务扣除额,并帮助客户直接从应用中报税。通过定制 GPT-3,Keeper Tax 能够持续改进结果。每周一次,Keeper Tax 添加约 500 个新的训练示例来微调其模型,这每周带来约 1% 的准确率提升,将准确率从 85% 提高到 93%。 Viable 网络界面(使用定制后的 GPT-3) **Viable** 帮助公司从客户反馈中获取洞察。通过定制 GPT-3,Viable 能够将大量非结构化数据转化为可读的自然语言报告,突出显示主要客户投诉、表扬、需求和问题。定制 GPT-3 提高了 Viable 报告的可靠性。通过使用定制版 GPT-3,客户反馈摘要的准确率从 66% 提高到 90%。结果是客户需要的切实、直观的信息,用于指导其产品决策。 Sana Labs 网络界面(使用定制后的 GPT-3) **Sana Labs** 是 AI 在学习领域应用开发的全球领先者。Sana 学习平台通过利用最新的机器学习突破为每个个体定制内容,为企业提供个性化学习体验。通过用其数据定制 GPT-3,Sana 的问题和内容生成从语法正确但笼统的回答转变为高度准确的输出。这带来了 60% 的改进,为学习者提供了更加个性化和有效的体验。 定制后的 GPT-3 Elicit **Elicit** 是一个 AI 研究助手,帮助人们使用学术论文的发现直接回答研究问题。该工具从大量研究论文库中找到最相关的摘要,然后应用定制版 GPT-3 来生成论文对问题所做的声明(如果有的话)。GPT-3 的自定义版本在三个重要指标上都优于提示设计:结果更易理解(改进 24%)、更准确(改进 17%)和总体更好(改进 33%)。 所有 API 客户现在都可以定制 GPT-3。注册并开始使用微调文档(https://beta.openai.com/docs/guides/fine-tuning)。

相似文章

GPT-3.5 Turbo 微调和 API 更新

OpenAI Blog

OpenAI 推出了 GPT-3.5 Turbo 的微调功能,允许开发者为特定用例定制模型,以获得更好的性能、可控性和输出格式。该更新使得经过微调的 GPT-3.5 Turbo 能够在某些任务上匹配 GPT-4 的性能,同时可将提示词大小减少 90%。

GPT-4o 现已支持微调

OpenAI Blog

OpenAI 推出了 GPT-4o 和 GPT-4o mini 的微调功能,允许开发者使用自己的数据集以更低成本自定义模型。该功能包括免费的训练代币(GPT-4o 每天 1M,GPT-4o mini 每天 2M,有效期至 9 月 23 日),面向所有付费层级的开发者提供。

基于人类偏好微调GPT-2

OpenAI Blog

OpenAI展示了使用人类偏好反馈对GPT-2(774M参数)进行微调,用于文本续写和摘要任务,风格任务需要5000个标签,摘要任务需要60000个标签,模型达到了86-88%的人类偏好率,但揭示了标注者启发式利用的问题。

GPT-3 为下一代应用提供支持

OpenAI Blog

OpenAI 宣布,在推出九个月后,已有超过 300 个应用通过其 API 使用 GPT-3,每天生成 45 亿个词汇。主要用例包括用于客户反馈分析的 Viable、用于交互式故事讲述的 Fable Studio 和用于语义搜索的 Algolia。

GPT-4o 微调网络研讨会

OpenAI Blog

OpenAI 于 2024 年 8 月 26 日举办了一场网络研讨会,重点介绍如何为业务应用微调 GPT-4o 模型。