标签
发布了 en_legal_ner_ind_trf v0.1,这是一个在33,000份印度最高法院判决书之上微调的InLegalBERT模型,在案例引用上取得了97.76%的F1得分,显著优于之前的基线。
Hugging Face 发布了 Transformers 库 5.8.0 版本,这是一个广泛用于自然语言处理和深度学习的开源框架。
本文提出RecursiveMAS,一种将递归扩展原则应用于多智能体系统的框架,以提升协作推理的效率和准确性。与标准基线相比,该框架在多个基准测试中实现了显著的加速和token缩减。
Hugging Face Transformers 库发布了补丁版本 5.6.2,包含少量错误修复和维护更新。
Qwen 团队为其新的 27B 模型更新了推荐的 temperature、top_p 与 presence_penalty 数值,以同时优化思考模式与指令模式的表现。
本文提供了一份技术指南,介绍如何将 Transformers.js 集成到基于 Manifest V3 的 Chrome 扩展中,详细阐述了后台 Service Worker 架构、模型缓存和 Agent 循环的设计。
NVIDIA 与 Hugging Face 发布实操演示,展示 Gemma 4 作为视觉-语言-动作模型在 Jetson Orin Nano Super 上完整运行,使用本地语音转文字/文字转语音及网络摄像头输入。
OpenAI 悄悄在 Hugging Face 发布了一款 Apache-2.0 授权的隐私过滤模型,权重完全开放,旨在帮用户在本地运行隐私保护过滤器的同时,仍享受大实验室级别的质量。
OpenAI 今天在 Hugging Face 发布了一个新模型。
HuggingFace 推出 ML-Intern,一个开源流程,只需一句提示即可自动化机器学习研究人员的日常工作。
Hugging Face 开源的“ml-intern”智能体仅需一句高层提示,即可自动化完成后训练全流程:从文献调研、数据清洗到模型调优。
一位用户通过要求 Hugging Face 的 ml-intern 工具在医学数据集上微调 SAM,并生成 Jupyter Notebook 教程和博客文章,对其进行了评估。
Hugging Face 正在将自己定位为智能体(及其人类助手)构建和使用 AI 的核心平台,超越简单的 API 调用。
Hugging Face 后训练团队展示 HF 生态如何让 ML 智能体自主把任何 AI 模型训到巅峰性能。
阿里巴巴发布 Qwen3.6-27B-FP8,一款 27B 参数的 FP8 量化模型,在代理式编码与推理基准上表现强劲,现已上架 Hugging Face。
Hugging Face 分析了 Anthropic 的 Mythos 模型对网络安全的影响,认为开放式工具和半自主智能体在抵御 AI 驱动威胁方面具有结构性优势。
一款未具名的开源模型同时运行 300 个并行智能体,持续 12 小时以上,在多项基准测试中据称超越 GPT-5.4 与 Opus 4.6,权重已上传至 Hugging Face。
Moonshot AI 发布 Kimi 2.6:1 万亿参数 MoE 模型,激活 320 亿,上下文 256K,300 子智能体集群,可推理 4,000 步。
一位开发者分享了一个名为 'traces-replay' 的 Hugging Face Space,用于回放 AI agent 轨迹,并幽默地将自己的爱好与看 Netflix 作对比。