首页
/
产品
/
开始使用 Gemini 2.0 Flash 和 Flash-Lite 构建应用
开始使用 Gemini 2.0 Flash 和 Flash-Lite 构建应用
摘要
Google 宣布 Gemini 2.0 Flash-Lite 正式发布,相比 1.5 Flash 性能提升,定价更简化,并支持 100 万令牌的上下文窗口。该模型现已在 Google AI Studio 和 Vertex AI 中提供,开发者已经在构建语音 AI、数据分析和视频编辑应用。
Gemini 2.0 Flash-Lite 现已在 Gemini API 中正式发布,可在 Google AI Studio 中用于生产环境,企业客户可通过 Vertex AI 使用
查看缓存全文
缓存时间:
2026/04/20 08:36
# 开始使用 Gemini 2.0 Flash 和 Flash-Lite 构建应用
来源:https://developers.googleblog.com/en/start-building-with-the-gemini-2-0-flash-family/
自从 Gemini 2.0 Flash 模型系列发布以来,开发者们正在发现这个高效模型系列的新用途。Gemini 2.0 Flash 相比 1.5 Flash 和 1.5 Pro 提供了更强的性能,同时提供了简化的定价方案,让我们的 100 万 token 的上下文窗口更加经济实惠。
今天,Gemini 2.0 Flash-Lite 现已在 Gemini API 中全面推出,可在 Google AI Studio 中用于生产环境,企业客户也可以在 Vertex AI 上使用。2.0 Flash-Lite 在推理、多模态、数学和事实准确性基准测试中相比 1.5 Flash 都有性能提升。对于需要长上下文窗口的项目,2.0 Flash-Lite 是一个更加经济高效的解决方案,对于超过 128K token 的提示词提供了简化定价。
开发者已经在利用 2.0 Flash 系列的速度、效率和成本效益来构建令人惊叹的应用。以下是几个例子:
### **1. 语音 AI**
构建有效的对话 AI,特别是语音助手,需要速度和准确性的完美结合。快速的首字节响应时间(TTFT)对于创造自然、响应式的感受至关重要,同时还需要能够处理复杂指令并通过函数调用与其他系统交互的能力。
Daily 正在利用 Gemini 2.0 Flash-Lite 来帮助开发者创建尖端的语音 AI 体验。使用他们开源的、与供应商无关的 Pipecat 框架来构建语音和多模态对话代理,Daily 创建了一个系统指令代码演示,可以可靠地检测语音信箱系统并相应地调整消息。
使用上述系统指令,Gemini 2.0 Flash-Lite 在检测语音信箱方面的性能明显优于当前专门的商业模型。
### **2. 数据分析**
Dawn 通过提供由 Gemini 2.0 Flash 驱动的深层、有意义的见解,正在革新工程团队监控其生产中 AI 产品的方式。Dawn 的"语义监控"管道允许工程团队即时搜索大规模的用户交互流,找到他们正在寻找的任何行为——比如用户挫折、对话长度和用户反馈——并将其持续追踪为正在进行的问题或主题,以识别生产中的异常和隐藏问题。
通过 Gemini 2.0 Flash 的简化定价、可靠的结构化输出和扩展的上下文能力,Dawn 能够显著减少搜索时间(从数小时降低到不到一分钟),成本削减超过 90%,并在评估和生产监控中实现更高的可靠性。
Gemini 2.0 Flash 使 Dawn 的语义监控更快、更可靠、更具成本效益。
### **3. 视频编辑**
Mosaic 正在使用 Gemini 2.0 Flash 以全新的代理范式来变革复杂且耗时的视频编辑任务。他们的解决方案包含多模态编辑代理,利用 Gemini 2.0 Flash 的长上下文能力,将繁琐的视频编辑任务从数小时加速到秒级,这样你只需一个提示就可以从任何长形视频中剪切 YouTube Shorts。
Gemini 2.0 Flash 在 Google AI Studio 中的新简化定价为每百万输入 token 0.10 美元,使庞大的上下文窗口价格降低 33%,为 AI 驱动的视频编辑工作流程开启了新的可能性。
使用 Gemini 2.0 Flash,Mosaic 的代理工作流可以从最近的一期《Release Notes》中剪切和编辑 YouTube Shorts。
## 开始使用 Gemini 2.0 Flash 和 2.0 Flash-Lite 构建应用
我们对 Gemini 2.0 Flash 系列模型为 Daily.co、Mosaic 和 Dawn 等开发者所实现的功能感到兴奋。无论你在构建语音助手、视频编辑工具,还是完全不同的应用,我们希望 Gemini 2.0 Flash 系列能够为你提供所需的性能和经济效益。立即在 Google AI Studio 中开始构建吧。
相似文章
Google DeepMind Blog
Google 宣布通过 API 正式推出 Gemini 2.0 Flash,并推出实验性的 Gemini 2.0 Pro(用于高级编码和推理任务),以及成本高效的 Gemini 2.0 Flash-Lite。所有模型都支持多模态输入和文本输出,并可通过 Google AI Studio、Vertex AI 和 Gemini 应用访问。
Google DeepMind Blog
Google 推出 Gemini 3.1 Flash-Lite,这是一款高速、高性价比的 AI 模型,现可通过 Google AI Studio 和 Vertex API 预览使用,专为高并发开发者工作负载而设计。
Google DeepMind Blog
Google 发布 Gemini 2.5 Flash-Lite 作为稳定版本并正式上线,这是 Gemini 2.5 系列中速度最快、成本最低的模型,定价为每 100 万个令牌 $0.10(输入)/$0.40(输出),具备原生推理能力和与原生工具的完全功能对等。
Google DeepMind Blog
Google 宣布 Gemini 2.5 Pro 和 Flash 模型的稳定正式发布,推出新的 Gemini 2.5 Flash-Lite 预览版,具有更低的延迟和成本,并更新 Flash 系列的定价,调整输入/输出令牌费率。
Google DeepMind Blog
Google 宣布 Gemini 2.5 Flash 和 Pro 模型正式推出,并推出预览版 Gemini 2.5 Flash-Lite——一个新的成本高效且最快的变种,针对高吞吐量、低延迟的任务进行了优化。