@ash_csx:本周我们将发布两款开源 SLM。1. 其中一款体积缩小高达 93 倍,精度仍媲美 SOTA。2. 另一款……
摘要
两款全新的开源小语言模型即将发布:其中一款体积缩小高达 93 倍,精度仍达到 SOTA 水平;另一款则超越了 OpenAI 近期发布的模型。首款模型将于明日发布。
本周我们将发布两款开源 SLM。
1. 其中一款体积缩小高达 93 倍,精度仍媲美 SOTA。
2. 另一款超越了 OpenAI 近期发布的模型。
模型 #1 将于明天发布 👀 https://t.co/NBXSlhGsUi
查看缓存全文
缓存时间: 2026/05/12 10:50
本周我们将发布两款开源 SLM。
- 其中一款精度媲美 SOTA,而规模最多可缩小 93 倍。
- 另一款则超越了近期发布的 OpenAI 模型。
Model #1 将于明天发布 👀 https://t.co/NBXSlhGsUi
相似文章
@cjzafir: 垂直语言模型(VLMs)正在击败顶级大语言模型。这些参数量7B到15B的小型专精模型在各自的细分领域击败了SoTA模型……
作者演示了,通过使用开源模型和Codex编排进行高性价比微调,小型垂直语言模型(6B-15B)能够在细分基准上超越顶级大语言模型,仅用价值300美元的数据集就取得了成果。
推出 gpt-oss
OpenAI 发布 gpt-oss-120b 和 gpt-oss-20b,两款最先进的开放权重语言模型,采用 Apache 2.0 许可证,性能与专有模型相当,可针对消费级硬件和边缘设备进行优化。两款模型均展现出强大的推理和工具使用能力,并进行了全面的安全评估。
@raphaelsrty:今天我们开源 LateOn 与 DenseOn,两款 149 M 参数的开放检索模型
Raphael 开源两款检索模型:LateOn(ColBERT 多向量)与 DenseOn(单向量),均 149 M 参数,在 BEIR 上超越体量 4 倍的大模型。
@ClementDelangue:OpenAI 今天在 HF 上新发布了一个模型!
OpenAI 今天在 Hugging Face 发布了一个新模型。
@AlexJonesax: 如果你在 Mac 上运行 LLM,值得了解的两个开源 MLX 推理服务器:MTPLX (@youssofal) 利用模型自身的…
本文介绍了两个适用于 Mac 的开源 MLX 推理服务器:MTPLX 通过投机解码(无需草稿模型)优化 token 生成速度,而 oMLX 则通过持久化的 KV 缓存提升代码智能体的工作流效率。