为微调 API 引入视觉功能

OpenAI Blog 产品

摘要

OpenAI 为 GPT-4o 推出视觉微调功能,允许开发者使用图像数据和文本对模型进行定制,以在视觉搜索、物体检测和医学影像分析等视觉任务中提升性能。

开发者现在可以使用图像和文本对 GPT-4o 进行微调,以改进视觉能力
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 14:47

# 向微调 API 引入视觉能力 来源:https://openai.com/index/introducing-vision-to-the-fine-tuning-api/ 今天,我们推出了 GPT-4o 的视觉微调功能,使开发者能够使用图像进行微调,而不仅仅是文本。开发者可以自定义模型,使其具有更强的图像理解能力,从而实现增强的视觉搜索功能、改进自动驾驶车或智慧城市的物体检测,以及更精准的医学影像分析等应用。 自从我们首次推出 GPT-4o 的微调功能以来,已有数十万开发者使用纯文本数据集自定义我们的模型,以改进特定任务的性能。然而,在许多情况下,仅使用文本对模型进行微调无法提供预期的性能提升。

相似文章

GPT-4o 现已支持微调

OpenAI Blog

OpenAI 推出了 GPT-4o 和 GPT-4o mini 的微调功能,允许开发者使用自己的数据集以更低成本自定义模型。该功能包括免费的训练代币(GPT-4o 每天 1M,GPT-4o mini 每天 2M,有效期至 9 月 23 日),面向所有付费层级的开发者提供。

GPT-3.5 Turbo 微调和 API 更新

OpenAI Blog

OpenAI 推出了 GPT-3.5 Turbo 的微调功能,允许开发者为特定用例定制模型,以获得更好的性能、可控性和输出格式。该更新使得经过微调的 GPT-3.5 Turbo 能够在某些任务上匹配 GPT-4 的性能,同时可将提示词大小减少 90%。

微调 API 功能改进和自定义模型项目扩展

OpenAI Blog

OpenAI 推出微调 API 的功能改进,包括基于轮次的检查点、用于模型评估的对比体验区、第三方集成和增强的仪表板功能。该公司还扩展了其自定义模型项目,为开发者提供更多对构建领域特定 AI 解决方案的控制和灵活性。

GPT-4o 微调网络研讨会

OpenAI Blog

OpenAI 于 2024 年 8 月 26 日举办了一场网络研讨会,重点介绍如何为业务应用微调 GPT-4o 模型。

GPT-4V(ision) 系统卡

OpenAI Blog

OpenAI 发布了 GPT-4V(ision) 的系统卡,详细说明其安全属性和评估结果。GPT-4V(ision) 在 GPT-4 的基础上增加了图像输入功能,支持多模态指令跟随和视觉分析。