为微调 API 引入视觉功能
摘要
OpenAI 为 GPT-4o 推出视觉微调功能,允许开发者使用图像数据和文本对模型进行定制,以在视觉搜索、物体检测和医学影像分析等视觉任务中提升性能。
开发者现在可以使用图像和文本对 GPT-4o 进行微调,以改进视觉能力
查看缓存全文
缓存时间: 2026/04/20 14:47
# 向微调 API 引入视觉能力
来源:https://openai.com/index/introducing-vision-to-the-fine-tuning-api/
今天,我们推出了 GPT-4o 的视觉微调功能,使开发者能够使用图像进行微调,而不仅仅是文本。开发者可以自定义模型,使其具有更强的图像理解能力,从而实现增强的视觉搜索功能、改进自动驾驶车或智慧城市的物体检测,以及更精准的医学影像分析等应用。
自从我们首次推出 GPT-4o 的微调功能以来,已有数十万开发者使用纯文本数据集自定义我们的模型,以改进特定任务的性能。然而,在许多情况下,仅使用文本对模型进行微调无法提供预期的性能提升。
相似文章
GPT-4o 现已支持微调
OpenAI 推出了 GPT-4o 和 GPT-4o mini 的微调功能,允许开发者使用自己的数据集以更低成本自定义模型。该功能包括免费的训练代币(GPT-4o 每天 1M,GPT-4o mini 每天 2M,有效期至 9 月 23 日),面向所有付费层级的开发者提供。
GPT-3.5 Turbo 微调和 API 更新
OpenAI 推出了 GPT-3.5 Turbo 的微调功能,允许开发者为特定用例定制模型,以获得更好的性能、可控性和输出格式。该更新使得经过微调的 GPT-3.5 Turbo 能够在某些任务上匹配 GPT-4 的性能,同时可将提示词大小减少 90%。
微调 API 功能改进和自定义模型项目扩展
OpenAI 推出微调 API 的功能改进,包括基于轮次的检查点、用于模型评估的对比体验区、第三方集成和增强的仪表板功能。该公司还扩展了其自定义模型项目,为开发者提供更多对构建领域特定 AI 解决方案的控制和灵活性。
GPT-4o 微调网络研讨会
OpenAI 于 2024 年 8 月 26 日举办了一场网络研讨会,重点介绍如何为业务应用微调 GPT-4o 模型。
GPT-4V(ision) 系统卡
OpenAI 发布了 GPT-4V(ision) 的系统卡,详细说明其安全属性和评估结果。GPT-4V(ision) 在 GPT-4 的基础上增加了图像输入功能,支持多模态指令跟随和视觉分析。