@ClementDelangue: 本地 AI 正在迎来它的时刻!以下是过去 8 个月每月新增的 GGUF 模型数量及相关见解……
摘要
本文强调了 Hugging Face 上本地 AI GGUF 模型创建量的显著激增,近几个月的每月新增量几乎翻倍,超过 9,000 个,这得益于工具的改进以及新的开源权重模型的发布。
本地 AI 正在迎来它的时刻!以下是过去 8 个月每月新增 GGUF 模型的数量,以及来自我们 HF 内部代理的见解(5 月数据为部分统计):
- HF 上共有 176,000 个公开 GGUF 模型
- 两个明显的阶段:10 月至 2 月平均每月新增约 5,100 个 GGUF 模型。随后 3 月至 4 月跃升至每月约 9,200 个——几乎是之前速度的两倍。
- 3 月是转折点(环比增长 55%)——这可能由一波新的开源权重模型发布并被量化为 GGUF 格式所驱动。
- 4 月势头持续,新增 9,700 个,表明这并非一次性激增,而是一个新的基准线。
- GGUF 生态系统正在加速——社区量化模型的速度比以往任何时候都快,这很可能归功于更好的工具支持(llama.cpp 的改进、自动化量化管道,以及更多原生支持 GGUF 的模型)。让我们出发吧!
相似文章
@ClementDelangue:OpenAI 今天在 HF 上新发布了一个模型!
OpenAI 今天在 Hugging Face 发布了一个新模型。
@ClementDelangue:笔记本上本地开放权重 AI 的进步速度已超过摩尔定律的两倍!从 2024 年 5 月到 202…
Hugging Face CEO Clement Delangue 表示,在硬件配置不变的情况下,笔记本端本地开放权重 AI 的性能提升速度已达摩尔定律的 4.7 倍,并以模型从 Llama 3 70B 演进至 DeepSeek V4 Flash 的进展作为佐证。
Hugging Face 开源生态现状:2026 年春季
本报告分析了 2026 年春季 Hugging Face 平台上开源 AI 生态的发展现状,涵盖用户、模型和数据集的显著增长,以及衍生模型创作和垂直细分社区的发展趋势。
GGML 和 llama.cpp 加入 Hugging Face,保障本地 AI 长期发展
GGML 和 llama.cpp 已加入 Hugging Face,以确保本地 AI 开发的长期可持续性。Georgi Gerganov 的团队将保持对项目的完全自主权,同时获得资源来扩大社区支持并改进 llama.cpp 推理与 transformers 模型定义之间的集成。
@no_stp_on_snek:turboquant+ 现已成为 LocalAI 的可切换后端,与 tinygrad 和 sglang 并列
LocalAI 新增 turboquant+ 后端,可在不升级硬件的情况下为 GGUF 模型提供更长上下文支持。