@RisingSayak: Hugging Face 的内核项目正在成长!我们希望它成为内核开发者和内核用户的首选之地…
摘要
Hugging Face 的内核项目正在扩展,并寻求贡献者参与自主内核开发,为模型提供真正的优化价值。
Hugging Face 的内核项目正在成长!
我们希望它成为内核开发者和内核用户的首选之地。
我们正在寻找对从事自主内核开发感兴趣的人,为真实模型提供真正的优化价值。
如果有兴趣请联系我们 :) https://t.co/uVmTfVj8Ln
查看缓存全文
缓存时间: 2026/05/15 17:06
Hugging Face 的内核项目正在不断壮大!
我们希望它成为内核开发者和用户的理想平台。
我们正在寻找对通过智能体进行内核开发感兴趣的人,为真实模型提供实实在在的优化价值。
如有兴趣,欢迎联系我们 :) https://t.co/uVmTfVj8Ln
相似文章
@onusoz:我换新工作了!很高兴宣布我将加入 Hugging Face,致力于让本地模型在 OpenC… 中表现出色
一位开发者宣布加入 Hugging Face,旨在提升 OpenClaw 及其他开源智能体框架对本地模型的支持,并计划公开构建过程并全程记录。
Hugging Face 开源生态现状:2026 年春季
本报告分析了 2026 年春季 Hugging Face 平台上开源 AI 生态的发展现状,涵盖用户、模型和数据集的显著增长,以及衍生模型创作和垂直细分社区的发展趋势。
@socialwithaayan: Hugging Face 刚刚开源了每位研究者梦寐以求的 ML Intern 不再需要花费数天阅读论文和编写训练脚本…
Hugging Face 开源了 ml-intern,这是一个自主代理,能够阅读 ML 论文、发现数据集、训练模型、调试失败、并将生产就绪的模型上传到 Hub,自动化整个后训练工作流程。
AdaExplore:基于失败驱动的自适应与多样性保留搜索的高效内核生成
来自卡内基梅隆大学、华盛顿大学和Arm的研究人员提出了AdaExplore,这是一种用于GPU内核代码生成的LLM智能体框架。该框架通过失败驱动自适应与多样性保留搜索技术,在不进行额外微调的情况下,在KernelBench Level-2和Level-3基准测试中分别实现了3.12倍和1.72倍的加速。
@Thom_Wolf:超爱 Aksel 和 Hugging Face 后训练团队的这项工作!原来 HF 生态(论文、数据集、模型全部一条 CLI 就能拉,还有 skills 和 md 文件)天生就是跑 SOTA ML 智能体的土壤:能让智能体把任意 AI 模型自动训到顶尖性能。
Hugging Face 后训练团队展示 HF 生态如何让 ML 智能体自主把任何 AI 模型训到巅峰性能。