@AntLingAGI:发布 Ling-2.6-flash,104B 总参、7.4B 激活的稀疏指令模型

X AI KOLs Following 模型

摘要

Ling-2.6-flash 是 104B 总参/7.4B 激活的稀疏指令模型,专为 token 效率优化,可在智能体任务中降低成本、提升吞吐。

推出 Ling-2.6-flash,一款拥有 104B 总参数、7.4B 激活参数的稀疏指令模型。它主打高 token 效率,拒绝冗余输出,在真实智能体任务中保持竞争力,同时帮助开发者降低成本、提升吞吐。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/22 02:09

推出 Ling-2.6-flash:拥有 104B 总参数量、7.4B 激活参数量的指令模型。Ling-2.6-flash 专为高 token 效率设计,不生成冗余输出;在真实智能体任务中保持竞争力,同时帮助开发者降低成本、提升吞吐量。

相似文章

z-lab/dflash

GitHub Trending (daily)

DFlash 引入了一种用于 Flash 投机解码的块扩散方法,以提高大语言模型的推理速度。

Jackrong/Qwen3.5-9B-DeepSeek-V4-Flash-GGUF

Hugging Face Models Trending

本文档介绍 Qwen3.5-9B-DeepSeek-V4-Flash,这是一款通过知识蒸馏技术将 DeepSeek-V4 的推理能力迁移至 9B 参数小模型中的 AI 模型,旨在实现高效推理。