我们正在扩展 Gemini 2.5 系列模型

Google DeepMind Blog 模型

摘要

Google 宣布 Gemini 2.5 Flash 和 Pro 模型正式推出,并推出预览版 Gemini 2.5 Flash-Lite——一个新的成本高效且最快的变种,针对高吞吐量、低延迟的任务进行了优化。

Gemini 2.5 Flash 和 Pro 现已正式推出,我们引入了 2.5 Flash-Lite,这是迄今为止成本最高效且速度最快的 2.5 模型。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 08:35

# 我们正在扩展 Gemini 2.5 系列模型 来源:https://blog.google/products-and-platforms/products/gemini/gemini-2-5-model-family-expands/ Gemini 2.5 Flash 和 Pro 现已正式发布,我们推出了 2.5 Flash-Lite,这是我们目前最具成本效益和速度最快的 2.5 模型。 蓝色和黑色未来主义风格的插图,中间是 Gemini 2.5 徽标 我们设计的 Gemini 2.5 是一个混合推理模型系列,具有出色的性能,同时在成本和速度方面达到了帕累托前沿 (https://storage.googleapis.com/deepmind-media/gemini/gemini_v2_5_report.pdf#page=3)。今天,我们通过发布稳定且正式可用的 2.5 Pro 和 Flash 模型,迈出了下一步。同时,我们也为您带来了 2.5 Flash-Lite 的预览版 — 这是我们目前最具成本效益和速度最快的 2.5 模型。 ## 2.5 Flash 和 2.5 Pro 正式发布 感谢大家的反馈,今天我们发布了 2.5 Flash 和 Pro 的稳定版本,这样您就可以放心地构建生产应用。Spline 和 Rooms 等开发者 (https://developers.googleblog.com/en/gemini-2-5-thinking-model-updates/) 以及 Snap 和 SmartBear 等组织 (https://cloud.google.com/blog/products/ai-machine-learning/gemini-2-5-flash-lite-flash-pro-ga-vertex-ai) 已经在过去几周内将最新版本用于生产环境。 ## Gemini 2.5 Flash-Lite 推出 我们还推出了新的 Gemini 2.5 Flash-Lite 的预览版,这是我们目前最具成本效益和速度最快的 2.5 模型。您现在可以开始使用预览版本进行构建,我们期待听到您的反馈。 在编码、数学、科学、推理和多模态基准测试中,2.5 Flash-Lite 的整体质量都高于 2.0 Flash-Lite。它在翻译和分类等高容量、低延迟敏感任务上表现出色,延迟低于 2.0 Flash-Lite 和 2.0 Flash 在广泛提示样本上的延迟。它具有使 Gemini 2.5 有用的所有功能,包括在不同预算下启用思维、连接 Google Search 和代码执行等工具、多模态输入以及 100 万个标记的上下文长度。 请查阅最新的 Gemini 技术报告 (https://storage.googleapis.com/deepmind-media/gemini/gemini_v2_5_report.pdf) 了解有关我们 2.5 系列模型的更多详情。 Gemini 2.5 Flash-Lite 基准测试表 Gemini 2.5 Flash-Lite 的预览版现已在 Google AI Studio 和 Vertex AI 中推出,与 2.5 Flash 和 Pro 的稳定版本并行。2.5 Flash 和 Pro 也可在 Gemini 应用中使用。我们还为 Search 提供了 2.5 Flash-Lite 和 Flash 的自定义版本。 我们迫不及待地想看到您继续使用 Gemini 2.5 构建的成果。

相似文章

Gemini 2.5:思维模型家族的更新

Google DeepMind Blog

Google 宣布 Gemini 2.5 Pro 和 Flash 模型的稳定正式发布,推出新的 Gemini 2.5 Flash-Lite 预览版,具有更低的延迟和成本,并更新 Flash 系列的定价,调整输入/输出令牌费率。

Gemini 2.5 Flash-Lite 现已准备就绪,可用于大规模生产

Google DeepMind Blog

Google 发布 Gemini 2.5 Flash-Lite 作为稳定版本并正式上线,这是 Gemini 2.5 系列中速度最快、成本最低的模型,定价为每 100 万个令牌 $0.10(输入)/$0.40(输出),具备原生推理能力和与原生工具的完全功能对等。

Gemini 2.0 现已向所有人开放

Google DeepMind Blog

Google 宣布通过 API 正式推出 Gemini 2.0 Flash,并推出实验性的 Gemini 2.0 Pro(用于高级编码和推理任务),以及成本高效的 Gemini 2.0 Flash-Lite。所有模型都支持多模态输入和文本输出,并可通过 Google AI Studio、Vertex AI 和 Gemini 应用访问。

Gemini 3.1 Flash-Lite:为大规模智能而生

Google DeepMind Blog

Google 推出 Gemini 3.1 Flash-Lite,这是一款高速、高性价比的 AI 模型,现可通过 Google AI Studio 和 Vertex API 预览使用,专为高并发开发者工作负载而设计。

推出 Gemini 2.5 Flash

Google DeepMind Blog

Google 宣布推出 Gemini 2.5 Flash,这是一个新的混合推理模型,现已通过 Gemini API 以预览版形式提供。该模型具有可切换的思考能力、细粒度的思考预算以平衡质量、成本和延迟,并在保持快速推理速度的同时相比 2.0 Flash 提升了性能。