解放你的 OpenClaw

Hugging Face Blog 新闻

摘要

Hugging Face 提供了一份迁移指南,帮助你将 OpenClaw 智能体从受限的 Anthropic Claude 模型迁移到开源替代方案,可通过 Hugging Face Inference Providers 或借助 Llama.cpp 等工具在本地硬件上运行。

暂无内容
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 09:14

解放你的 OpenClaw

来源:https://huggingface.co/blog/liberate-your-openclaw 返回文章 (https://huggingface.co/blog)

  • Hugging Face Inference Providers (https://huggingface.co/blog/liberate-your-openclaw#hugging-face-inference-providers)
  • 本地部署 (https://huggingface.co/blog/liberate-your-openclaw#local-setup)
  • 应该选择哪条路径? (https://huggingface.co/blog/liberate-your-openclaw#which-path-should-you-choose)

Anthropic 正在限制 Pro/Max 订阅用户在开放式智能体平台中对 Claude 模型的访问。不过别担心,Hugging Face 上有优秀的开源模型可以让你的智能体继续运行!而且大多数情况下,成本只是前者的一小部分。

如果你已经被切断连接,你的 OpenClaw、Pi 或 Open Code 智能体需要恢复生机,你可以通过两种方式将它们迁移到开源模型:

  1. 使用通过 Hugging Face Inference Providers 提供的开源模型。
  2. 在你自己的硬件上运行完全本地的开源模型。

托管路线是让你快速恢复功能强大智能体的最快方式。本地路线则适合那些注重隐私、希望零 API 成本并追求完全控制的用户。

要做到这一点,只需告诉你的 claude code、cursor 或你常用的智能体:帮我把我的 OpenClaw 智能体迁移到 Hugging Face 模型,并附上这个页面链接。

https://huggingface.co/blog/liberate-your-openclaw#hugging-face-inference-providersHugging Face Inference Providers

Hugging Face Inference Providers 是一个开放式平台,可以路由到开源模型的提供商。如果你想要最好的模型,或者没有必要的硬件,这就是正确的选择。

首先,你需要在这里创建一个 token (https://huggingface.co/settings/tokens)。然后你可以将这个 token 添加到 openclaw 中,如下所示:

openclaw onboard --auth-choice huggingface-api-key

在提示时粘贴你的 Hugging Face token,然后你会被要求选择一个模型。

我们推荐 GLM-5 (https://huggingface.co/zai-org/GLM-5),因为它在 Terminal Bench (https://huggingface.co/datasets/harborframework/terminal-bench-2.0) 上的出色表现,但这里有成千上万的模型可供选择 (https://huggingface.co/inference/models)。

你可以随时在 OpenClaw 配置中输入模型的 repo_id 来更新你的 Hugging Face 模型:

{ agents: { defaults: { model: { primary: "huggingface/zai-org/GLM-5:fastest" } } } }

注意:HF PRO 订阅用户每月可获得 $2 的免费额度,可用于 Inference Providers 的使用,了解更多请见这里 (https://huggingface.co/pro)。

https://huggingface.co/blog/liberate-your-openclaw#local-setup本地部署

在本地运行模型可以为你提供完全的隐私、零 API 成本,以及不受速率限制进行实验的能力。

安装 Llama.cpp,这是一个完全开源的低资源推理库。

``

mac 或 linux

brew install llama.cpp

windows

winget install llama.cpp ``

使用内置 Web UI 启动本地服务器:

llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL

这里我们使用的是 Qwen3.5-35B-A3B,它在 32GB RAM 下运行良好。如果你有不同的硬件需求,请查看你感兴趣模型的硬件兼容性 (https://huggingface.co/unsloth/Qwen3.5-35B-A3B-GGUF)。这里有成千上万的模型可供选择 (https://huggingface.co/models?pipeline_tag=text-generation&library=gguf&sort=trending)。

如果你在 llama.cpp 中加载了 GGUF,请使用如下 OpenClaw 配置:

openclaw onboard --non-interactive \ --auth-choice custom-api-key \ --custom-base-url "http://127.0.0.1:8080/v1" \ --custom-model-id "unsloth-qwen3.5-35b-a3b-gguf" \ --custom-api-key "llama.cpp" \ --secret-input-mode plaintext \ --custom-compatibility openai

验证服务器正在运行且模型已加载:

curl http://127.0.0.1:8080/v1/models

https://huggingface.co/blog/liberate-your-openclaw#which-path-should-you-choose应该选择哪条路径?

如果你想要最快捷的方式恢复功能强大的 OpenClaw 智能体,请使用 Hugging Face Inference Providers。如果你注重隐私、想要完全的本地控制并且不想支付 API 费用,请使用 llama.cpp

无论哪种方式,你都无需依赖封闭的托管模型就能让 OpenClaw 重新运转起来!

相似文章

Anthropic 表示 OpenClaw 风格的 Claude CLI 使用方式再次获准

Hacker News Top

# Anthropic - OpenClaw 来源:[https://docs.openclaw.ai/providers/anthropic](https://docs.openclaw.ai/providers/anthropic) ## Anthropic (Claude) Anthropic 开发了 **Claude** 模型系列,并通过 API 和 Claude CLI 提供访问。在 OpenClaw 中,Anthropic API 密钥和 Claude CLI 重用都被支持。如果已配置,现有遗留的 Anthropic token 配置文件在运行时仍会被识别。 ## 选项 A:Anthropic API 密钥 **最佳适用场景:** 标准 API 访问和按用量计

Nemotron Labs:OpenClaw Agent 对各类组织的意义

NVIDIA Blog

OpenClaw 是一个开源的持久化 AI 助手,已成为 GitHub 上星标最多的项目,引发了关于安全与自主性的讨论。NVIDIA 正与其合作以增强安全性,并发布了 NemoClaw 作为安全的参考实现。

OpenClaw 已超越聊天范畴,听我细说

Reddit r/openclaw

作者探讨了通过 Telegram 等聊天界面使用 OpenClaw 管理 AI 代理工作流的局限性,倡导采用专用仪表板和标准化 UI。他们重点介绍了 Paperclip 和 Multica 等旨在解决代理管理问题的新兴工具。

使用 Unsloth 和 Hugging Face Jobs 免费训练 AI 模型

Hugging Face Blog

Hugging Face 和 Unsloth 提供免费额度和训练资源,让开发者可以通过 Hugging Face Jobs 微调 AI 模型。开发者可以训练小型语言模型(如 LFM2.5-1.2B-Instruct),实现 2 倍更快的训练速度和 60% 更低的 VRAM 占用,并可配合 Claude Code 和 Codex 等编程代理使用。