Hermes 解锁自我改进的 AI 代理,由 NVIDIA RTX PC 和 DGX Spark 驱动
摘要
Nous Research 的 Hermes Agent 是一个针对本地使用优化的自我改进的开源 AI 代理框架,已成为 OpenRouter 上使用最广泛的代理,现在由 NVIDIA RTX PC 和 DGX Spark 提供加速性能。
<div id="bsf_rt_marker"></div><p><span style="font-weight: 400;">代理型 AI 正在改变用户完成工作的方式。继 <a target="_blank" href="https://www.nvidia.com/en-us/ai/build-a-claw/"><span style="font-weight: 400;">OpenClaw</span></a> 的成功之后,社区正在拥抱新的开源代理框架。最新的是 <a target="_blank" href="https://github.com/nousresearch/hermes-agent"><span style="font-weight: 400;">Hermes Agent</span></a>,它在不到三个月内获得了超过 <a target="_blank" href="https://github.com/nousresearch/hermes-agent"><span style="font-weight: 400;">140,000 个 GitHub 星星</span></a>,并且截至上周,根据 <a target="_blank" href="https://openrouter.ai/apps"><span style="font-weight: 400;">OpenRouter</span></a> 的数据,它是全球使用最多的代理。</span></p>
<p><span style="font-weight: 400;">由 Nous Research 开发,Hermes 专为可靠性和自我改进而设计——这两个特质历来难以通过代理实现。它在设计上与提供商和模型无关,并针对始终在线的本地使用进行了优化,这使得 <a target="_blank" href="https://www.nvidia.com/en-us/ai-on-rtx/"><span style="font-weight: 400;">NVIDIA RTX PC</span></a>、<a target="_blank" href="https://www.nvidia.com/en-us/products/workstations/"><span style="font-weight: 400;">NVIDIA RTX PRO 工作站</span></a> 和 <a target="_blank" href="https://www.nvidia.com/en-us/products/workstations/dgx-spark/"><span style="font-weight: 400;">NVIDIA DGX Spark</span></a> 成为全天候全速运行它的理想硬件。</span></p>
<p><span style="font-weight: 400;">Qwen 3.6 是阿里巴巴推出的新一系列高性能、开放权重的大语言模型 (LLM),非常适合运行像 Hermes 这样的本地代理。Qwen 3.6 27B 和 35B 参数模型在性能上超越了上一代 120B 和 400B 参数模型的对应产品,并在 NVIDIA RTX 和 DGX Spark 上运行,以实现加速的代理型 AI。</span></p>
<h2><b>Hermes:本地 AI 代理能力加速</b></h2>
<p><span style="font-weight: 400;">与其他流行代理一样,Hermes 与消息应用集成,可以访问本地文件和应用程序,并且全天候运行。但有四项突出能力使其与众不同:</span></p>
<ul>
<li><b>自我进化技能</b><span style="font-weight: 400;">:Hermes 编写并完善自己的技能。每当代理遇到复杂任务或收到反馈时,它都会将学到的内容保存为技能,从而能够随时间适应和改进。</span></li>
<li><b>包含的子代理:</b><span style="font-weight: 400;">Hermes 将子代理视为专注于子任务的短暂、隔离的工作线程——带有集中的上下文和工具集。这保持了任务组织的整洁,最小化了代理的混淆,并允许 Hermes 使用较小的上下文窗口运行,这对于本地模型非常理想。</span></li>
<li><b>设计可靠性:</b><span style="font-weight: 400;">Nous Research 对 Hermes 附带的所有技能、工具和插件进行策划和压力测试。结果:Hermes 开箱即用——即使使用 300 亿参数级别的本地模型——无需大多数其他代理框架所需的持续调试。</span></li>
<li><b>相同模型,更好结果:</b><span style="font-weight: 400;">开发人员跨框架使用相同模型的比较一致显示 Hermes 的结果更强。区别在于框架:Hermes 是一个主动编排层,而不是一个薄包装器,实现了持久的设备端代理,而非逐任务执行。</span></li>
</ul>
<p><span style="font-weight: 400;">Hermes 代理和底层 LLM 都设计为本地运行——这意味着硬件质量直接决定用户体验质量。NVIDIA RTX GPU 专为此类工作负载而构建。</span></p>
<h2><b>Qwen 3.6:数据中心级智能,本地化</b></h2>
<p><span style="font-weight: 400;">最新的 Qwen 3.6 模型建立在广受好评的 Qwen 3.5 系列之上,为本地 AI 代理带来了又一次飞跃。新的 Qwen 3.6 35B 模型在大约 20GB 内存上运行,同时超越了需要 70GB+ 内存的 1200 亿参数模型。</span></p>
<p><span style="font-weight: 400;">此外,Qwen 3.6 27B 是一个新的密集模型,具有更多活跃参数——匹配 Qwen 3.5 397B 等 4000 亿参数模型的精度,同时尺寸仅为十六分之一。在高端 RTX GPU 上运行,为模型提供了快速体验所需的计算能力。</span></p>
<p><span style="font-weight: 400;">这些模型非常适合像 Hermes 这样的本地代理,而 NVIDIA GPU 和 DGX Spark 是运行它们的最快方式。<a target="_blank" href="https://www.nvidia.com/en-us/data-center/tensor-cores/"><span style="font-weight: 400;">NVIDIA Tensor Core</span></a> 加速 AI 推理,提供更高的吞吐量和更低的延迟——因此 Hermes 可以在几秒内完成多步骤任务或完善自己的技能,而不是几分钟。</span></p>
<h2><b>DGX Spark:始终在线的代理型计算机</b></h2>
<p><span style="font-weight: 400;">像 Hermes 这样的代理旨在持续运行——响应请求、规划多步骤任务、自主执行和自我改进。NVIDIA DGX Spark 是理想伴侣——一款紧凑、高效的独立机器,专为持续、全天候的代理型工作流而构建。</span></p>
<p><span style="font-weight: 400;">凭借 128GB 统一内存和 1 petaflop 的 AI 性能,NVIDIA DGX Spark 可以全天运行 1200 亿参数的混合专家模型。而新的 Qwen 3.6 35B 模型以更小的体积提供同等的智能——运行更快,并为用户提供运行并发工作负载的能力。</span></p>
<p><span style="font-weight: 400;">为了最大化性能和易用性,请阅读 <a target="_blank" href="http://www.build.nvidia.com/spark"><span style="font-weight: 400;">Hermes DGX Spark playbook</span></a>。此外,<a target="_blank" href="https://www.nvidia.com/en-us/events/build-it-yourself-agentic-ai/"><span style="font-weight: 400;">注册参加即将举办的实践课程</span></a>,加入 NVIDIA 的“Build It Yourself”代理型 AI 系列,了解如何使用 NemoClaw 和 OpenShell 构建自主 AI 代理。</span></p>
<p><span style="font-weight: 400;">NVIDIA DGX Spark 可从 NVIDIA 的制造合作伙伴处订购——<a target="_blank" href="https://marketplace.nvidia.com/en-us/enterprise/personal-ai-supercomputers/?superchip=GB10&page=1&limit=15"><span style="font-weight: 400;">访问市场</span></a>。</span></p>
<h2><b>在 NVIDIA 硬件上开始使用 Hermes</b></h2>
<p><span style="font-weight: 400;">在 NVIDIA 硬件上本地运行 Hermes 非常简单。</span></p>
<p><span style="font-weight: 400;">访问 <a target="_blank" href="https://github.com/nousresearch/hermes-agent"><span style="font-weight: 400;">Hermes GitHub 仓库</span></a> 开始使用,并将其与首选的本地模型和运行时配对。通过 <a target="_blank" href="https://github.com/ggml-org/llama.cpp"><span style="font-weight: 400;">llama.cpp</span></a>、<a target="_blank" href="https://lmstudio.ai/"><span style="font-weight: 400;">LM Studio</span></a> 或 <a target="_blank" href="https://ollama.com/"><span style="font-weight: 400;">Ollama</span></a><span style="font-weight: 400;">。</span></p>
查看缓存全文
缓存时间: 2026/05/13 18:12
# Hermes 解锁自我改进的 AI 助手,由 NVIDIA RTX 电脑和 DGX Spark 驱动
来源:https://blogs.nvidia.com/blog/rtx-ai-garage-hermes-agent-dgx-spark/
代理式 AI 正在改变用户完成工作的方式。继 OpenClaw (https://www.nvidia.com/en-us/ai-build-a-claw/) 获得成功之后,社区正在拥抱新的开源代理框架。最新的是 Hermes Agent,它在不到三个月内获得了 140,000 个 GitHub Star,并且截至上周,根据 OpenRouter 的数据,它是全球使用最多的智能体。
由 Nous Research 开发,Hermes 专为可靠性和自我改进而设计——这两点历来是智能体难以实现的特质。它在设计上与提供商和模型无关,并针对始终在线的本地使用进行了优化,这使得 NVIDIA RTX 电脑、NVIDIA RTX PRO 工作站和 NVIDIA DGX Spark 成为全天候全速运行它的理想硬件。
来自阿里巴巴的 Qwen 3.6 是一系列高性能、开放权重的大语言模型,非常适合运行像 Hermes 这样的本地智能体。Qwen 3.6 27B 和 35B 参数模型的表现超越了上一代的 120B 和 400B 参数模型,并在 NVIDIA RTX 和 DGX Spark 上运行,加速了代理式 AI。
## **Hermes:加速本地 AI 智能体能力**
与其他流行的智能体一样,Hermes 可以集成消息应用、访问本地文件和应用程序,并且 7x24 小时运行。但有四个突出能力使其脱颖而出:
- **自我进化的技能**:Hermes 编写并优化自身技能。每当智能体遇到复杂任务或收到反馈时,它会将学到的内容保存为技能,以便随时间适应和改进。
- **独立的子智能体**:Hermes 将子智能体视为短生命周期的、隔离的工作者,专门用于子任务——拥有集中的上下文和工具集。这保持了任务组织的整洁,最大程度减少了智能体的混乱,并允许 Hermes 使用更小的上下文窗口运行,非常适合本地模型。
- **设计上的可靠性**:Nous Research 对 Hermes 附带的每个技能、工具和插件进行了策划和压力测试。结果是:Hermes 开箱即用——即使在 300 亿参数级别的本地模型上——也无需像大多数其他智能体框架那样不断调试。
- **相同模型,更优结果**:开发人员使用相同模型在不同框架上的对比测试一致显示,Hermes 的结果更强。差异在于框架:Hermes 是一个主动编排层,而非薄薄的包装层,实现了持久、设备端智能体,而非逐个任务执行。
Hermes 智能体和底层的大语言模型都是为了本地运行而构建的——这意味着硬件质量直接决定了用户体验质量。NVIDIA RTX GPU 正是为此类工作负载而设计的。
## **Qwen 3.6:数据中心级别智能,本地运行**
最新的 Qwen 3.6 模型基于备受赞誉的 Qwen 3.5 系列,为本地 AI 智能体带来了又一次飞跃。新的 Qwen 3.6 35B 模型在大约 20GB 内存上运行,同时超越了需要 70GB+ 内存的 1200 亿参数模型。
此外,Qwen 3.6 27B 是一个新的密集模型,拥有更多活跃参数——在只有十六分之一大小的情况下,达到了像 Qwen 3.5 397B 这样的 4000 亿参数模型的准确度。在高端 RTX GPU 上运行,为该模型提供了快速体验所需的计算能力。
这些模型非常适合像 Hermes 这样的本地智能体,而 NVIDIA GPU 和 DGX Spark 是运行它们的最快方式。NVIDIA Tensor Core 加速了 AI 推理,提供更高的吞吐量和更低的延迟——因此 Hermes 可以在几秒钟而不是几分钟内完成多步骤任务或优化自身技能。
## **DGX Spark:始终在线的代理式电脑**
像 Hermes 这样的智能体被设计为持续运行——响应请求、规划多步骤任务、自主执行和自我改进。NVIDIA DGX Spark 是理想的配套设备——一款紧凑、高效的独立机器,专为全天候的代理式工作流而设计。
凭借 128GB 统一内存和 1 Petaflops 的 AI 性能,NVIDIA DGX Spark 可以全天运行 1200 亿参数的专家混合模型。而新的 Qwen 3.6 35B 模型以更精简的体积提供了等效的智能——运行更快,并让用户具备运行并发工作负载的能力。
为了最大化性能和易用性,请阅读 Hermes DGX Spark 操作指南。此外,报名参加即将举行的 NVIDIA“自己动手”代理式 AI 系列动手实践课程,学习如何使用 NemoClaw 和 OpenShell 构建自主 AI 智能体。
NVIDIA DGX Spark 现可从 NVIDIA 的制造合作伙伴处订购——请访问市场查看。
## **在 NVIDIA 硬件上开始使用 Hermes**
在 NVIDIA 硬件上本地运行 Hermes 非常简单。
请访问 Hermes GitHub 仓库开始使用,并将其与首选的本地模型和运行时配对。通过 llama.cpp、LM Studio 或 Ollama 运行 Hermes 与 Qwen 3.6。Hermes Agent 内置支持 LM Studio 和 Ollama,这是实现本地智能体的最简单路径。
无论是探索个人智能体前沿的本地 AI 爱好者,还是为其工作流构建本地工具的开发人员,Hermes 在 NVIDIA 硬件上都提供了一个独特而可靠的基础。
请继续关注 RTX AI Garage 关于针对 NVIDIA RTX 硬件优化的最新开放模型和智能体的更多更新。
## **#如果没看到:RTX AI Garage 最新动态**
✨**NVIDIA RTX PRO GPU** 在使用 llama.cpp 运行 Qwen 3.6 模型时,token 生成速度提升高达 3 倍。获得本地 AI 所需的实时响应能力,让智能体可以处理多步骤任务并优化其技能,保持工作流无缝衔接。
**Google 的 Gemma 4 26B 和 31B 模型现已提供 NVFP4 检查点**,在 NVIDIA Blackwell GPU 上实现更快的性能。将 NVFP4 检查点与 Google 新的多 token 预测草稿器配对,可在相同输出质量下获得高达 3 倍的推理速度提升,使前沿推理能够在 NVIDIA GPU 上本地运行。
**Mistral Medium 3.5 版**(也于四月份发布)包含了对 llama.cpp 和 Ollama 的兼容性更新,使用户能够在 NVIDIA RTX PRO 和 DGX Spark 系统上运行。
🦞 **NVIDIA 最近推出了 NVIDIA NemoClaw**,这是一款开源堆栈,通过提高安全性和支持本地模型,优化了 NVIDIA 设备上的 OpenClaw 体验。NemoClaw 现在支持适用于 Linux 的 Windows 子系统,将支持扩展到微软平台上的爱好者和开发者。按照这份逐步操作指南,在 DGX Spark 上开始使用 NemoClaw。
*关注 NVIDIA AI PC 的 **Facebook**、**Instagram**、**TikTok** 和 **X**——并订阅 **RTX AI PC 新闻简报** 以获取最新信息。*
*在 **LinkedIn** 和 **X** 上关注 NVIDIA Workstation。*
*请参阅关于软件产品信息的 **通知**。*
相似文章
NousResearch/hermes-agent
Hermes Agent 是由 Nous Research 推出的开源、自我进化 AI 智能体框架,具备闭环学习循环、跨平台部署能力,并兼容数百种大语言模型。它提供终端界面、持久化记忆、自动化调度以及用于扩展 AI 工作流的科研级工具。
@nateherk: https://x.com/nateherk/status/2053308681299616125
本文详细介绍了 Hermes——由 Nous Research 构建的一个开源 AI Agent 框架,它专注于内存、技能以及用于即时自动化的自我改进循环。
@akshay_pachaar: https://x.com/akshay_pachaar/status/2054564519280804028
Nous Research 推出的 Hermes Agent 综合指南,重点介绍其技能自进化、三层记忆架构以及用于构建持久化 AI 智能体的 GEPA 优化能力。
@tavilyai:Hermes Agent 让我们得以一窥智能体的未来走向——它从每次会话中学习,自主编写技能,并持续构建记忆…
Nous Research 推出的 Hermes Agent 是一款开源自进化自主智能体,能够从每次会话中学习并随时间积累持久记忆。Tavily 作为其网络搜索后端接入,旨在提升搜索质量,防止错误数据在智能体的长期记忆与技能库中不断累积放大。
@Teknium:我们在 OpenRouter 所有 AI 应用中成功登顶全球第一。由衷感谢近 1000 位贡献者们……
Hermes Agent 模型凭借近 1000 名开发者的贡献,在 OpenRouter 全平台 AI 应用中荣登全球榜首。创作者感谢社区支持,并邀请大家为后续改进提供建议。