Google 已正式发布 Gemini 3.1 Flash-Lite(2 分钟阅读)

TLDR AI 模型

摘要

Google 现已公开发布 Gemini 3.1 Flash-Lite,提供超低延迟、高吞吐处理能力以及多模态功能,主要面向企业级应用。

Google 推出了 Gemini 3.1 Flash-Lite,可通过 Google Cloud 在全球范围内访问。该模型专为超低延迟和高负载任务设计,面向软件工程与金融服务等行业,提供亚秒级响应时间,并将 p95 延迟维持在约 1.8 秒。Gemini 3.1 在速度、成本和认知性能上均有优化,支持多模态任务,是实时开发者工具和客户服务运营的理想选择。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/11 18:32

# Google 正式发布 Gemini 3.1 Flash-Lite(全面可用) 来源:https://www.testingcatalog.com/google-launches-gemini-3-1-flash-lite-in-general-availability/ Google 已正式推出 Gemini 3.1 Flash-Lite,这是其 Gemini 3 系列模型的最新成员。该模型现已全面可用,全球开发者和企业均可通过 Google Cloud 平台使用。此次发布主要针对对超低延迟和高吞吐量处理有严苛要求的组织与团队,例如软件工程、客户服务、创意产业和金融服务领域的用户。Flash-Lite 定位为 Gemini 3 系列中性价比最高、速度最快的模型,它在分类任务中可实现亚秒级响应,并在高并发负载下,将完整回复生成的 P95 延迟保持在约 1.8 秒左右。 AI Studio。Gemini 3.1 Flash-Lite 引入了多模态能力,支持文本与图像处理。早期采用者重点强调了其处理智能体任务(如工具调用与编排)的能力,以及在实时开发环境和高并发客户服务场景中的表现。与之前的版本相比,Flash-Lite 在速度、成本和认知性能之间取得了更优的平衡,使 JetBrains、Gladly 和 Ramp 等企业能够在不牺牲质量的前提下实现规模化运营。行业专家和技术负责人对其可靠性和经济性给予了高度评价,尤其是在需要即时数据处理与决策的关键场景中。 Google 推出 Gemini 3.1 Flash-Lite 表明,公司持续致力于提供针对企业级部署优化的 AI 模型,并高度重视延迟、成本效益以及强大的智能体能力。该产品现已面向所有 Google Cloud 客户开放,为高要求商业应用中的 AI 驱动自动化树立了新标杆。 来源(https://cloud.google.com/blog/products/ai-machine-learning/gemini-3-1-flash-lite-is-now-generally-available?ref=testingcatalog.com)

相似文章

Gemini 3.1 Flash-Lite:为大规模智能而生

Google DeepMind Blog

Google 推出 Gemini 3.1 Flash-Lite,这是一款高速、高性价比的 AI 模型,现可通过 Google AI Studio 和 Vertex API 预览使用,专为高并发开发者工作负载而设计。

我们正在扩展 Gemini 2.5 系列模型

Google DeepMind Blog

Google 宣布 Gemini 2.5 Flash 和 Pro 模型正式推出,并推出预览版 Gemini 2.5 Flash-Lite——一个新的成本高效且最快的变种,针对高吞吐量、低延迟的任务进行了优化。

开始使用 Gemini 2.0 Flash 和 Flash-Lite 构建应用

Google DeepMind Blog

Google 宣布 Gemini 2.0 Flash-Lite 正式发布,相比 1.5 Flash 性能提升,定价更简化,并支持 100 万令牌的上下文窗口。该模型现已在 Google AI Studio 和 Vertex AI 中提供,开发者已经在构建语音 AI、数据分析和视频编辑应用。

Gemini 2.5 Flash-Lite 现已准备就绪,可用于大规模生产

Google DeepMind Blog

Google 发布 Gemini 2.5 Flash-Lite 作为稳定版本并正式上线,这是 Gemini 2.5 系列中速度最快、成本最低的模型,定价为每 100 万个令牌 $0.10(输入)/$0.40(输出),具备原生推理能力和与原生工具的完全功能对等。

Gemini 2.0 现已向所有人开放

Google DeepMind Blog

Google 宣布通过 API 正式推出 Gemini 2.0 Flash,并推出实验性的 Gemini 2.0 Pro(用于高级编码和推理任务),以及成本高效的 Gemini 2.0 Flash-Lite。所有模型都支持多模态输入和文本输出,并可通过 Google AI Studio、Vertex AI 和 Gemini 应用访问。