cost-efficient

标签

Cards List
#cost-efficient

Gemini 2.5 Flash-Lite 现已准备就绪,可用于大规模生产

Google DeepMind Blog · 2025-10-25 缓存

Google 发布 Gemini 2.5 Flash-Lite 作为稳定版本并正式上线,这是 Gemini 2.5 系列中速度最快、成本最低的模型,定价为每 100 万个令牌 $0.10(输入)/$0.40(输出),具备原生推理能力和与原生工具的完全功能对等。

0 人收藏 0 人点赞
#cost-efficient

我们正在扩展 Gemini 2.5 系列模型

Google DeepMind Blog · 2025-06-17 缓存

Google 宣布 Gemini 2.5 Flash 和 Pro 模型正式推出,并推出预览版 Gemini 2.5 Flash-Lite——一个新的成本高效且最快的变种,针对高吞吐量、低延迟的任务进行了优化。

0 人收藏 0 人点赞
#cost-efficient

OpenAI o3-mini

OpenAI Blog · 2025-01-31 缓存

OpenAI 发布 o3-mini,一款成本高效的推理模型,具备强大的 STEM 能力,现已在 ChatGPT 和 API 中可用,支持函数调用、结构化输出和三个推理力度级别。该模型在数学和编码方面与 o1 性能相当,同时更快且更便宜,免费计划用户首次获得推理模型的访问权限。

0 人收藏 0 人点赞
#cost-efficient

OpenAI o1-mini

OpenAI Blog · 2024-09-12 缓存

OpenAI 发布了 o1-mini,一款成本高效的推理模型,在数学和编码等 STEM 任务上与 o1 性能相当,但价格便宜 80%。该模型针对推理密集型应用进行了优化,现已向 API 用户和 ChatGPT Plus/Team/Enterprise/Edu 订阅者开放。

0 人收藏 0 人点赞
#cost-efficient

GPT-4o mini:推进成本高效的智能模型

OpenAI Blog · 2024-07-18 缓存

OpenAI 发布 GPT-4o mini,一款成本高效的小型模型,每百万输入令牌价格仅为 15 美分,比 GPT-3.5 Turbo 便宜 60%,在 MMLU 上表现强劲(82%),在推理、数学和编码任务上超越 Gemini Flash 和 Claude Haiku 等竞争对手。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈