NVIDIA与ServiceNow合作推出面向企业的新型自主AI代理
摘要
NVIDIA与ServiceNow宣布建立合作伙伴关系,为企业提供自主AI代理,其中包括Project Arc,这是一个可自我进化的桌面代理,具备治理和安全功能,由NVIDIA加速计算和ServiceNow的AI平台提供支持。
<div id="bsf_rt_marker"></div><p><span style="font-weight: 400;">企业AI已经学会了生成。它学会了推理。现在,企业正在问下一个问题:AI应该如何行动?</span></p>
<p><span style="font-weight: 400;">早期的代理系统已经展示了可能性,超越了简单的提示,承担起更复杂的任务。下一步是将这些能力引入企业环境——在那里,代理必须在实际工作流程中具备上下文、控制和一致性。</span></p>
<p><span style="font-weight: 400;">在ServiceNow Knowledge 2026大会上,NVIDIA创始人兼首席执行官黄仁勋与ServiceNow董事长兼首席执行官Bill McDermott在开幕主题演讲中共同探讨了企业AI的下一个阶段。</span><span style="font-weight: 400;"> </span></p>
<p><span style="font-weight: 400;">两家公司正在全栈范围内扩展合作,提供安全且易于采用的专业自主AI代理——由NVIDIA加速计算、开放模型、领域特定技能和安全代理执行软件提供支持,并结合了ServiceNow Action Fabric的企业工作流上下文和ServiceNow AI Control Tower的治理能力。</span></p>
<p><span style="font-weight: 400;">ServiceNow正在推出<a target="_blank" href="https://newsroom.servicenow.com/press-releases/details/2026/ServiceNow-extends-agentic-AI-governance-from-desktops-to-data-centers-with-NVIDIA/default.aspx">Project Arc</a>,这是一个长期运行的、可自我进化的自主桌面代理,专为知识工作者设计,包括开发人员、IT团队和管理员。 </span></p>
<p><span style="font-weight: 400;">与独立的AI代理不同,Project Arc通过ServiceNow Action Fabric原生连接到ServiceNow AI平台,为自主桌面代理的每个操作带来治理、可审计性和工作流智能。它可以访问本地文件系统、终端和机器上安装的应用程序,完成传统自动化无法处理的复杂多步任务,但具备企业实际大规模部署AI所需的控制机制。</span></p>
<p><span style="font-weight: 400;">该工作基于每个公司在长期运行的自主代理中所需的三个要求设计:可定制的开放模型和领域特定技能,以及帮助代理在不暴露敏感数据或系统的情况下行动的安全措施——所有这些都运行在提供高效代币经济学的AI工厂之上。</span><a href="https://blogs.nvidia.com/blog/ai-tokens-explained/"><span style="font-weight: 400;">代币经济学</span></a></p>
<p><span style="font-weight: 400;">将这种自主水平引入企业需要从一开始就加以控制。</span></p>
<p><span style="font-weight: 400;">Project Arc使用<a target="_blank" href="https://build.nvidia.com/openshell">NVIDIA OpenShell</a>,这是一个开源安全运行时,用于在沙盒化、策略治理的环境中开发和部署自主代理。ServiceNow正在OpenShell的基础上进行构建并贡献代码,以推进企业级安全代理执行的共同基础。借助OpenShell,企业可以定义代理可以看到什么、可以使用哪些工具以及每个操作如何被限制。 </span></p>
<p><span style="font-weight: 400;">“Project Arc代表了我们与NVIDIA持续合作的下一个阶段,将自主执行能力带到桌面上,”ServiceNow执行副总裁兼AI平台总经理Jon Sigler表示。“通过将OpenShell的运行时层与ServiceNow AI Control Tower相结合,并由ServiceNow Action Fabric提供支持,我们提供了企业AI所需的治理和安全性。” </span></p>
<h2><b>开放模型与代理技能助力企业AI规模化</b></h2>
<p><span style="font-weight: 400;">要发挥作用,企业AI系统必须具有适应性。NVIDIA和ServiceNow正在构建一个开放的生态系统,使组织能够根据其特定领域和数据定制模型和应用程序。</span></p>
<p><span style="font-weight: 400;">NVIDIA代理技能使专业代理(如ServiceNow AI Specialists)能够跨企业工作流提供有针对性的能力。例如,<a target="_blank" href="https://build.nvidia.com/nvidia/aiq">NVIDIA AI-Q蓝图</a>用于构建专门深度研究代理,使ServiceNow AI Specialists能够收集上下文、综合信息并支持跨业务功能的更复杂决策。 </span></p>
<p><span style="font-weight: 400;">此外,NVIDIA代理工具包(包括<a target="_blank" href="https://www.nvidia.com/en-us/ai-data-science/foundation-models/nemotron/">NVIDIA Nemotron</a>开放模型)提供了灵活的构建模块和专业技能,用于开发定制AI应用程序。为了支持这些系统可靠运行的实际性能,两家公司还在推进NOWAI-Bench,这是一个面向企业AI代理的开放基准测试套件,与NVIDIA NeMo Gym库集成。NOWAI-Bench包括<a target="_blank" href="https://enterpriseops-gym.github.io/">EnterpriseOps-Gym</a>,这是业界最具挑战性的企业代理基准之一,其中Nemotron 3 Super目前在开源模型中排名第一。</span></p>
<p><span style="font-weight: 400;">与通用基准不同,这些评估侧重于多步工作流——企业AI系统在这些工作流中经常遇到实际挑战——帮助团队构建在生产环境中可靠运行的代理。</span></p>
<h2><b>高效的AI工厂</b></h2>
<p><span style="font-weight: 400;">随着AI代理变得长期运行和始终在线,将它们扩展到数百万个工作流程不仅需要能力,还需要效率——使得代币经济学成为企业AI的核心。</span></p>
<p><span style="font-weight: 400;">NVIDIA AI工厂旨在为生产AI提供最低成本、最高效的代币经济学。<a target="_blank" href="https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/">NVIDIA Blackwell</a>平台每瓦特的代币输出量比NVIDIA Hopper高出50倍以上,导致每百万代币的成本降低近35倍。对于在数百万工作流中运行代理的企业来说,这种效率决定了AI从试点到广泛生产使用的速度。</span></p>
<p><span style="font-weight: 400;">ServiceNow AI Control Tower与<a target="_blank" href="https://www.nvidia.com/en-us/solutions/ai-factories/validated-design/">NVIDIA企业AI工厂</a>验证设计集成,将治理和可观测性扩展到大规模AI工作负载。通过增加的代理可观测性能力,组织可以实时监控行为,并管理AI系统的整个生命周期——从部署到优化。</span></p>
<p><span style="font-weight: 400;">AI正在成为完成工作的一种新方式。现在正在发生变化的是,大规模部署所需的核心要素——能力强大的代理、内置护栏和经过验证的性能——正在汇聚到一起。</span></p>
<p><span style="font-weight: 400;">行动最快的公司将是为代理提供基础设施以执行、上下文以决策以及治理以确保每项操作可问责的公司——</span></p>
查看缓存全文
缓存时间:
2026/05/08 06:43
# NVIDIA 与 ServiceNow 合作推出面向企业的全新自主 AI 代理
来源:https://blogs.nvidia.com/blog/servicenow-autonomous-ai-agents-enterprises/
企业 AI 已经学会了生成。它已经学会了推理。现在企业正在问下一个问题:AI 应该如何行动?
早期的代理系统已经展示了可能性,它们超越了简单的提示,承担起更复杂的任务。下一步是将这些能力带入企业环境——在那里,代理必须在实际工作流程中具有上下文、控制和一致性。
在 ServiceNow Knowledge 2026 上,NVIDIA 创始人兼 CEO Jensen Huang 与 ServiceNow 董事长兼 CEO Bill McDermott 共同在开幕主题演讲中讨论了企业 AI 的下一阶段。
两家公司正在扩展其全栈合作,提供安全且易于采用的专门化自主 AI 代理——由 NVIDIA 加速计算、开放模型、领域特定技能和安全的代理执行软件驱动,并结合 ServiceNow Action Fabric 的企业工作流上下文以及 ServiceNow AI Control Tower 的治理能力。
ServiceNow 正在推出 Project Arc(https://newsroom.servicenow.com/press-releases/details/2026/ServiceNow-extends-agentic-AI-governance-from-desktops-to-data-centers-with-NVIDIA/default.aspx),这是一个长期运行、自我演进的自主桌面代理,专为知识工作者(包括开发人员、IT 团队和管理员)设计。
与独立的 AI 代理不同,Project Arc 通过 ServiceNow Action Fabric 原生连接到 ServiceNow AI 平台,为自主桌面代理的每一个动作带来治理、审计性和工作流智能。它可以访问机器上安装的本地文件系统、终端和应用程序,完成传统自动化无法处理的复杂多步骤任务,同时具备企业大规模部署 AI 所需的控制能力。
这项工作基于每个公司在长期运行的自主代理中所需的三个要求设计:可定制的开放模型和领域特定技能,以及帮助代理在不暴露敏感数据或系统的情况下行动的安全性——所有这些都运行在提供高效代币经济学(https://blogs.nvidia.com/blog/ai-tokens-explained/)的 AI 工厂之上。
将这种水平的自主性引入企业需要从一开始就进行控制。
Project Arc 使用 NVIDIA OpenShell(https://build.nvidia.com/openshell),这是一个开源安全运行时,用于在沙盒化、策略管控的环境中开发和部署自主代理。ServiceNow 正在基于 OpenShell 进行构建并为其做出贡献,以推进安全、企业级代理执行的共同基础。借助 OpenShell,企业可以定义代理可以看到什么、可以使用哪些工具以及每个动作如何被限制。
Jon Sigler(ServiceNow AI 平台执行副总裁兼总经理)表示:“Project Arc 代表了我们与 NVIDIA 持续合作的下一个步骤,将自主执行带到桌面。通过将 OpenShell 的运行时层与 ServiceNow AI Control Tower 相结合,并由 ServiceNow Action Fabric 提供支持,我们正在提供企业 AI 所需的治理和安全性。”
## **开放模型和代理技能扩展企业 AI**
为了有效,企业 AI 系统必须具有适应性。NVIDIA 和 ServiceNow 正在构建一个开放生态系统,允许组织根据其特定领域和数据定制模型和应用。
NVIDIA 代理技能使专门化代理(如 ServiceNow AI Specialists)能够跨企业工作流提供有针对性的能力。例如,用于构建专门深度研究代理的 NVIDIA AI-Q Blueprint(https://build.nvidia.com/nvidia/aiq)使 ServiceNow AI Specialists 能够收集上下文、综合信息,并支持跨业务职能的更复杂决策。
此外,NVIDIA Agent Toolkit(包括 NVIDIA Nemotron(https://www.nvidia.com/en-us/ai-data-science/foundation-models/nemotron/)开放模型)提供了灵活的构建模块和专门技能,用于开发定制 AI 应用。为了支持这些系统可靠运行的现实性能,两家公司还在推进 NOWAI-Bench,这是一个面向企业 AI 代理的开放基准测试套件,与 NVIDIA NeMo Gym 库集成。NOWAI-Bench 包括 EnterpriseOps-Gym(https://enterpriseops-gym.github.io/),这是业界最具挑战性的企业代理基准之一,其中 Nemotron 3 Super 目前在开源模型中排名第一。
与通用基准不同,这些评估侧重于多步骤工作流——企业 AI 系统通常在此遇到实际挑战——帮助团队构建在生产环境中可靠运行的代理。
## **高效的 AI 工厂**
随着 AI 代理变得长期运行且始终在线,在数百万个工作流中扩展它们不仅需要能力,还需要效率——这使得代币经济学成为企业 AI 的核心。
NVIDIA AI 工厂旨在为生产 AI 提供最低成本、最高效的代币经济学。NVIDIA Blackwell(https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/)平台每瓦特的代币输出比 NVIDIA Hopper 高出 50 倍以上,使得每百万代币的成本降低近 35 倍。对于在数百万个工作流中运行代理的企业来说,这种效率可以决定 AI 从试点到广泛生产使用的速度。
ServiceNow AI Control Tower 与 NVIDIA Enterprise AI Factory(https://www.nvidia.com/en-us/solutions/ai-factories/validated-design/)验证设计集成,将治理和可观测性扩展到大规模 AI 工作负载。借助新增的代理可观测性能力,组织可以实时监控行为,并在整个生命周期内管理 AI 系统——从部署到优化。
AI 正在成为完成工作的一种新方式。现在变化的是,大规模部署所需的核心要素——有能力的代理、内置护栏和经过验证的性能——正在汇聚在一起。
行动最快的公司将是那些为代理提供行动基础设施、决策上下文和确保每个动作可问责的治理的公司——而 NVIDIA 和 ServiceNow 正在为全球企业实现这一目标。
*了解更多关于**NVIDIA OpenShell**(https://build.nvidia.com/openshell)**和**NVIDIA AI-Q Blueprint**(https://build.nvidia.com/nvidia/aiq)*的信息。*
相似文章
OpenAI Blog
ServiceNow 与 OpenAI 宣布达成多年期协议,使 OpenAI 成为 ServiceNow 平台的首选智能能力提供商,该平台每年处理超过 800 亿个工作流。双方合作将直接在企业工作流中集成 OpenAI 的前沿模型(包括 GPT-5.2),实现跨 IT、财务、人力资源及其他业务职能的 AI 驱动自动化、摘要生成、智能搜索及端到端任务执行。
NVIDIA Blog
Adobe、NVIDIA 和 WPP 扩大了战略合作,将自主 AI 智能体引入企业营销领域,实现可扩展且受管控的内容创作与客户体验工作流程。该合作利用了 Adobe 的创意平台、WPP 的营销专业知识以及 NVIDIA 的加速计算和智能体工具包,提供安全且符合品牌规范的企业级 AI 智能体解决方案。
NVIDIA Blog
NVIDIA 与 Google Cloud 宣布深化合作,以推进智能体 AI 和物理 AI 的发展,推出了由 NVIDIA Vera Rubin 驱动的全新 A5X 实例,并将 Gemini 企业智能体平台与 NVIDIA NeMo 集成。
NVIDIA Blog
NVIDIA 推出 OpenShell,这是一款专为自主 AI 智能体打造的“内置安全”运行时环境。它通过将智能体操作隔离在沙箱中,并在系统级别执行安全策略,而非依赖行为提示词来保障安全。作为 NVIDIA Agent Toolkit 的一部分,该工具包使企业能够在统一的策略管理和合规监管下,运行代码编写智能体和智能体工作流。
OpenAI Blog
Snowflake与OpenAI宣布达成2亿美元合作,将OpenAI的前沿模型直接集成到Snowflake的数据平台中,使企业能够构建AI代理,并通过自然语言从数据中生成洞察,无需编码。