@TheTuringPost: "It would be a mistake for any country to try to slow down open source. A country that leads open source is a country t…
摘要
Hugging Face CEO Clem Delangue argues that attempting to slow down open source is a strategic error, asserting that open source leadership is essential for national AI dominance, security, and preventing corporate monopolies.
查看缓存全文
缓存时间: 2026/05/11 00:32
“It would be a mistake for any country to try to slow down open source. A country that leads open source is a country that can lead AI in general” @ClementDelangue, co-founder & CEO @HuggingFace Watch the full interview on YouTube: https://youtube.com/watch?v=DfJV722V1WY&list=PLRRoCwK1ZTNCAZXXOswpIYQqzMgT4swsI…
开源是 AI 领导力的基石:Clem Delangue 访谈实录
TL;DR: Hugging Face 联合创始人 Clem Delangue 认为,任何国家试图遏制开源都是战略错误。开源不仅加速了 AI 技能的普及,赋予更多人构建能力以改变公众对 AI 的看法,还是维持技术领导力和防止市场垄断的关键。通过降低门槛和增加透明度,开源生态系统能有效对抗基于恐惧的营销,并确保 AI 发展的多样性与安全性。
ML Intern 与 AI 构建门槛的降低
访谈首先聚焦于 Hugging Face 推出的 ML Intern 智能体。Clem Delangue 指出,默认的编码智能体在构建 AI 方面表现不佳,正如 Andrej Karpathy 在发布 Auto Research 时所提到的,早期智能体往往无法有效工作。然而,通过对模型 harness(连接器)、模型本身以及与 Hugging Face Hub 等工具的集成进行微调,ML Intern 取得了显著进展。
目前,ML Intern 能够微调小型模型、创建数据集并将模型转换为不同格式。令人兴奋的是,该团队在半小时内让智能体通过了为研究员设置的面试测试,且表现完美。这表明,如果智能体能降低构建 AI 的门槛,将使更多人能够利用开源模型和数据集,甚至简化本地模型的部署历史难题。
从精英到大众:AI 构建者的激增
Clem 预测,具备 AI 构建技能的人群规模将从目前的几十万或低百万量级,急剧扩大到数千万,甚至可能达到一亿。这意味着未来每一位软件工程师都可能具备优化、训练和微调模型的能力。
这种转变具有深远意义:
- 夺回控制权: 开发者不再单纯依赖闭源 API 和第三方供应商。闭源供应商可能单方面制定条件、随意提价、弃用模型或在幕后更改模型导致工作负载质量下降。开源将控制权交还给构建者。
- 更广泛的用户基础: 与需要学习编程语言的软件工程不同,AI 由数据集和文本驱动,潜力受众更广。Steve Yegge 曾指出非技术人员也会进入编程世界,Clem 对此表示赞同。
- 解决实际问题: 构建者多样性的增加将带来更广泛的视角。目前硅谷大佬可能更关注娱乐性应用,但更多元的构建者群体可能会推动 AI 在生物学、化学、医学和气候变化等更紧迫领域的实际应用,减少所谓的“视频 AI 垃圾内容(slop)”。
改变公众对 AI 的看法:从恐惧到赋权
目前公众对 AI 的看法普遍负面,充满恐惧或憎恨。Clem 认为,赋能公众成为构建者是改变这一看法的关键。
- 体验优于说教: 以 Hugging Face 的实体产品 Rich Minions 为例。虽然人们可能对抽象的“AI 机器人”无感,但当他们亲手组装(花费约3小时)、构建应用程序并与之互动后,往往会爱上这一技术。
- 打破营销迷雾: 目前市场上存在大量基于恐惧的营销(如 Project Glasswing 相关宣传),旨在贩卖焦虑以获利。让公众亲手构建系统,能让他们意识到 AI 只是一种工具(软件 2.0 或 3.0),而非像《机械战警》那样具有自我意识的实体。这种赋权感能抵消恐惧营销的影响。
开源与安全:防御者 vs 攻击者
针对“开源模型会导致武器化或深度伪造”的担忧,Clem 从网络安全角度进行了反驳:
- 韧性优于封闭: 网络安全的核心在于让防御者比攻击者拥有更多权力,使攻击成本高于防御。开源系统通常比专有系统修补速度快得多。专有系统在闭门状态下遭受攻击时,攻击者有数周时间利用漏洞,而修补往往滞后。
- 平衡权力不对称: 闭源增加了能力和权力的不对称性,赋予少数人巨大能力而防御者无力应对。开源保持了平衡,使防御者有能力反击。
- 历史教训: 以 GPT-2 为例,当年被认为太危险而不能发布,如今看来并未造成系统性问题。真正的风险在于模型泄露或仅让特定实体接触而世界其他部分无法接触,这反而制造了虚假的安全感。
商业模式与开源的协调
对于像 ElevenLabs 这样因商业模式而不开源的公司,Clem 表示完全理解,但反对以“安全”为借口的不透明行为。
- 诚实沟通: 如果不开源是因为商业利益,应坦诚相告。
- 部分开源的好处: 公司可以通过发布研究论文、部分数据集或小模型来建立信誉和知名度,同时保留大模型的专有性。Mistral 和 Cohere 等公司证明了开源策略可以带来巨大商业成功,并吸引优秀人才。
- 核心立场: 企业不开源本身没有错,但不应误导公众认为这是出于安全考虑。
政策建议:不要遏制开源
Clem 强调,当前全球范围内遏制开源的趋势是一种倒退。
- 领导力的源泉: 美国在 AI 领域的领导地位很大程度上源于其在开源方面的领导力。例如,谷歌开源 Transformers 架构(“Attention Is All You Need”),这一举措引发了广泛的模仿和协作,奠定了今天的技术基础。
- 战略风险: 如果美国或其他国家减缓开源进程,将在几个月或几年内失去 AI 领导力。
- 防止垄断: 遏制开源会增加权力、能力和收入的集中度,导致 AI 被 OpenAI、Anthropic 等大型科技公司垄断。想象一个只有少数几家公司能开发软件的世界是可怕的。开源能创造竞争、模仿和就业机会,确保 AI 创造的价值能被广泛分配,而不仅仅被少数公司捕获。
Source: https://www.youtube.com/watch?v=DfJV722V1WY
相似文章
要击败中国,拥抱开源AI(WSJ)
华尔街日报评论文章认为,美国应拥抱开源AI发展,将其作为对抗中国AI雄心的战略优势,而非限制AI技术。
开源不仅对开发者有益,它还是美国最强大的AI安全工具之一。更多模型意味着更…
NVIDIA首席执行官黄仁勋在米尔肯研究院全球会议上表示,开源AI是美国最强大的AI安全工具,并认为更多的开源模型意味着有更多的守护者来保护AI系统。
AI与网络安全的未来:为何开放性至关重要
Hugging Face 分析了 Anthropic 的 Mythos 模型对网络安全的影响,认为开放式工具和半自主智能体在抵御 AI 驱动威胁方面具有结构性优势。
智能体购物,重新定义智能,图片文字优化,高参与度意味着对齐更差
吴恩达讨论美国政策如何促使盟友转向主权AI和开源模型,并以DeepSeek、Qwen和K2 Think为例。他认为开源AI可以帮助各国减少对美国技术的依赖。
你希望美国“赢得”人工智能吗?
George Hotz 质疑美国“赢得”人工智能的说法,反对 Elon Musk 等人对 AI 的集中控制,主张开放、民主化的 AI 获取。