首页
/
模型
/
Gemini 2.5 Flash-Lite 现已准备就绪,可用于大规模生产
Gemini 2.5 Flash-Lite 现已准备就绪,可用于大规模生产
摘要
Google 发布 Gemini 2.5 Flash-Lite 作为稳定版本并正式上线,这是 Gemini 2.5 系列中速度最快、成本最低的模型,定价为每 100 万个令牌 $0.10(输入)/$0.40(输出),具备原生推理能力和与原生工具的完全功能对等。
Gemini 2.5 Flash-Lite 已从预览版升级为稳定版本并正式发布。这款成本高效的模型在体积紧凑的情况下提供高质量性能,包括 2.5 系列的特性,如 100 万个令牌的上下文窗口和多模态支持。
查看缓存全文
缓存时间:
2026/04/20 08:35
# Gemini 2.5 Flash-Lite 现已稳定发布且正式上线
来源:https://developers.googleblog.com/en/gemini-25-flash-lite-is-now-stable-and-generally-available/
今天,我们发布了 Gemini 2.5 Flash-Lite 的稳定版本,这是 Gemini 2.5 模型系列中速度最快、成本最低(**输入代币 $0.10/百万,输出代币 $0.40/百万**)的模型。我们构建 2.5 Flash-Lite 是为了推进性价比的前沿,具备原生推理能力,可以在更复杂的用例中选择启用。在 2.5 Pro 和 2.5 Flash 的基础上,这个模型完善了我们可用于规模化生产环境的 2.5 模型系列。
## 迄今为止最具成本效益和速度最快的 2.5 模型
Gemini 2.5 Flash-Lite、2.5 Flash 和 2.5 Pro 功能对比表
Gemini 2.5 Flash-Lite 在性能和成本之间达到了完美平衡,不牺牲质量,尤其是在翻译和分类等对延迟敏感的任务中表现出众。
以下是其突出特点:
- **业界领先的速度:** Gemini 2.5 Flash-Lite 在广泛的提示词样本上的延迟比 2.0 Flash-Lite 和 2.0 Flash 都更低。
- **成本效益:** 这是我们成本最低的 2.5 模型,定价为 $0.10/百万输入代币和 $0.40/百万输出代币,让你能够以经济实惠的方式处理大量请求。我们还从预览版推出时将音频输入价格降低了 40%。
- **智能小巧:** 在包括编码、数学、科学、推理和多模态理解在内的广泛基准测试中,它的整体质量都超过 2.0 Flash-Lite。
- **功能完整:** 使用 2.5 Flash-Lite 构建时,你可以获得 100 万代币的上下文窗口、可控的思考预算,以及对 Google Search 联网、代码执行和 URL 上下文等原生工具的支持。
## Gemini 2.5 Flash-Lite 的实际应用
自 2.5 Flash-Lite 推出以来,我们已经看到了一些令人印象深刻的部署案例,以下是我们最喜欢的几个:
- **Satlyt** (https://satlyt.ai/) 正在构建一个去中心化的空间计算平台,将改变卫星数据的处理和利用方式,用于实时总结轨道遥测数据、自主任务管理和卫星间通信解析。**2.5 Flash-Lite 的速度使关键的车载诊断延迟降低了 45%**,**功耗比基线模型降低了 30%**。
- **HeyGen** (https://www.heygen.com/?sid=rewardful&via=heycok&gad_source=1&gad_campaignid=22741203521&gclid=Cj0KCQjwyvfDBhDYARIsAItzbZGTS1VpQAHrPymGNk7IWHZqfL4StqUECwxsAby79OH2xuCg4D_fGuEaArY9EALw_wcB) 使用 AI 为视频内容创建虚拟人物,利用 Gemini 2.5 Flash-Lite 自动进行视频规划、分析和优化内容,并**将视频翻译成 180 多种语言**。这让他们能够为用户提供全球化的个性化体验。
- **DocsHound** (https://docshound.com/) 通过使用 Gemini 2.5 Flash-Lite **处理长视频并提取数千张截图**(低延迟)将产品演示转换为文档。这种方法比传统方法快得多,能更快地将视频转化为全面的文档和 AI 代理的训练数据。
- **Evertune** (https://www.evertune.ai/) 帮助品牌了解他们在 AI 模型中的呈现方式。Gemini 2.5 Flash-Lite 对他们来说是一个游戏规则改变者,显著加快了分析和报告生成速度。其快速性能使他们能够迅速扫描和综合大量模型输出,为客户提供**动态、及时的洞察**。
你可以通过在代码中指定 "gemini-2.5-flash-lite" 来开始使用 2.5 Flash-Lite。如果你正在使用预览版本,可以切换到 "gemini-2.5-flash-lite",它是相同的底层模型。我们计划在 8 月 25 日移除 Flash-Lite 的预览别名。
准备好开始构建了吗?现在就在 Google AI Studio (https://aistudio.google.com/prompts/new_chat?model=gemini-2.5-flash-lite) 和 Vertex AI (https://console.cloud.google.com/vertex-ai/studio/multimodal?model=gemini-2.5-flash-lite) 中尝试 Gemini 2.5 Flash-Lite 的稳定版本吧。
相似文章
Google DeepMind Blog
Google 宣布 Gemini 2.5 Pro 和 Flash 模型的稳定正式发布,推出新的 Gemini 2.5 Flash-Lite 预览版,具有更低的延迟和成本,并更新 Flash 系列的定价,调整输入/输出令牌费率。
Google DeepMind Blog
Google 宣布 Gemini 2.5 Flash 和 Pro 模型正式推出,并推出预览版 Gemini 2.5 Flash-Lite——一个新的成本高效且最快的变种,针对高吞吐量、低延迟的任务进行了优化。
Google DeepMind Blog
Google 宣布 Gemini 2.0 Flash-Lite 正式发布,相比 1.5 Flash 性能提升,定价更简化,并支持 100 万令牌的上下文窗口。该模型现已在 Google AI Studio 和 Vertex AI 中提供,开发者已经在构建语音 AI、数据分析和视频编辑应用。
Google DeepMind Blog
Google 宣布推出 Gemini 2.5 Flash,这是一个新的混合推理模型,现已通过 Gemini API 以预览版形式提供。该模型具有可切换的思考能力、细粒度的思考预算以平衡质量、成本和延迟,并在保持快速推理速度的同时相比 2.0 Flash 提升了性能。
Google DeepMind Blog
Google 宣布通过 API 正式推出 Gemini 2.0 Flash,并推出实验性的 Gemini 2.0 Pro(用于高级编码和推理任务),以及成本高效的 Gemini 2.0 Flash-Lite。所有模型都支持多模态输入和文本输出,并可通过 Google AI Studio、Vertex AI 和 Gemini 应用访问。