inclusionAI/Ring-2.6-1T · Hugging Face

Reddit r/LocalLLaMA 模型

摘要

inclusionAI发布了Ring-2.6-1T,一个万亿参数推理模型,具有增强的代理执行能力、推理努力机制和异步强化学习训练范式,旨在应对复杂的现实世界任务。

介绍Ring-2.6-1T:一个专为真实世界复杂任务场景设计的万亿参数旗舰推理模型,可供开发者、研究人员和企业环境进行验证、适配和进一步开发。Ring-2.6-1T的目标并非单纯追求更大的参数规模,而是为了解决大模型正在进入的真实生产环境:代理工作流、工程开发、科研分析、复杂业务系统和企业自动化流程。在这些场景中,模型不仅需要“回答问题”,还需要理解上下文、规划步骤、调用工具、持续执行,并在长期任务中保持稳定性。Ring-2.6-1T在三个方面实现了关键升级: * 全面增强的代理执行能力:从“能回答”到“能执行”,在多步骤任务、工具协作、上下文规划和推进复杂工作流方面表现更加稳定。 * 推理努力机制:支持high和xhigh两种推理强度级别,允许开发者根据任务复杂度灵活调整思考深度,在效果、速度和成本之间实现更好平衡。 * 创新的异步强化学习训练范式:利用Async RL架构结合IcePop算法,提升万亿参数模型的长期强化学习训练效率和稳定性,为代理能力和复杂推理提供基础支撑。
查看原文
查看缓存全文

缓存时间: 2026/05/14 18:35

inclusionAI/Ring-2.6-1T · Hugging Face

来源:https://huggingface.co/inclusionAI/Ring-2.6-1T

🤗Hugging Face (https://huggingface.co/inclusionAI) | 🤖ModelScope (https://modelscope.cn/organization/inclusionAI) | 🐙ling.tbox.cn (https://ling.tbox.cn/chat)

重磅推出 Ring-2.6-1T:一款专为真实世界复杂任务场景设计的万亿参数旗舰推理模型,现面向开发者、研究者及企业环境开放,支持验证、适配与进一步开发。

Ring-2.6-1T 的目标并非单纯追求更大的参数规模,而是解决大模型正在进入的真实生产环境:智能体工作流、工程开发、科研分析、复杂业务系统及企业自动化流程。在这些场景中,模型不仅需要“回答问题”,更需要理解上下文、规划步骤、调用工具、持续执行,并在长周期任务中保持稳定性。

Ring-2.6-1T 在三个方面实现了关键升级:

  • 全面增强的 Agent 执行能力:从“能回答”进化为“能执行”,在多步骤任务、工具协同、上下文规划及复杂工作流推进中表现更稳定。
  • 推理强度机制:支持 high 和 xhigh 两种推理强度级别,开发者可根据任务复杂度灵活调整思考深度,在效果、速度与成本之间取得更好平衡。
  • 创新异步强化学习训练范式:采用 Async RL 架构结合 IcePop 算法,提升万亿参数模型长周期强化学习的训练效率与稳定性,为 Agent 能力与复杂推理提供基础支撑。

https://huggingface.co/inclusionAI/Ring-2.6-1T#model-downloads 模型下载

您可以从下表下载 Ring-2.6-1T。如果您位于中国大陆,我们也在 ModelScope 上提供了模型,以加速下载过程。

注意:如果您对之前的版本感兴趣,请访问 Huggingface (https://huggingface.co/inclusionAI) 或 ModelScope (https://modelscope.cn/organization/inclusionAI) 上的历史模型集合。

https://huggingface.co/inclusionAI/Ring-2.6-1T#agent-capability-from-understanding-tasks-to-continuously-executing-tasks Agent 能力:从“理解任务”到“持续执行任务”

在真实的业务系统中,模型面对的往往不是孤立的问答,而是需要工具协作的连续、多轮、复杂任务。Ring-2.6-1T 针对此类场景专门增强,实现了更稳定的任务分解、步骤规划、工具调用、错误修正与上下文延续。

从基准测试结果来看,Ring-2.6-1T high 在真实任务执行评测中表现卓越:PinchBench 得分 87.60,显著高于 GPT-5.4 xHigh 和 Gemini-3.1-Pro high;ClawEval 得分 63.82,在同类模型中位居前列;Telecom 场景 Tau2-Bench 得分 95.32,与最高分模型差距不到 1 分,展现了其在复杂业务流程、工具协作及行业特定任务中的稳定执行能力。

这意味着 Ring-2.6-1T 不仅理解用户意图,更能实际推动任务在真实工作流中持续执行。无论是在个人助手 Agent、企业流程自动化,还是编码 Agent 场景中的代码生成、任务分解与工程协作中,Ring-2.6-1T 都更像一个可执行、可反馈、可迭代的工作流引擎。

https://huggingface.co/inclusionAI/Ring-2.6-1T#reasoning-effort-high-and-xhigh-configurations–fast-when-needed-deep-when-required 推理强度:High 与 xHigh 配置——需要时快速,必要时深入

在实践中,并非所有任务都需要相同层次的推理资源。一项格式转换或信息整理任务,与一道数学竞赛题或复杂系统分析对模型思考深度的要求截然不同。

为此,Ring-2.6-1T 引入了可调节的推理强度机制,支持 high 和 xhigh 两种推理强度级别。

  • high 面向高频 Agent 工作流设计,适用于多轮交互、工具协作、任务分解及生产级默认调用。它在保持高任务完成率的同时,减少不必要的推理 token 开销,使模型在实际工作流中更快、更稳定、更具成本效益。
  • xhigh 专为数学、科研、复杂逻辑分析及多路径探索等高难度任务打造,赋予模型更广阔的推理空间。在具有挑战性的推理基准测试中,Ring-2.6-1T xhigh 展现出强大的能力上限:ARC-AGI-V2 得分 66.18,超越 Gemini-3.1-Pro high 和 Claude-Opus-4.7 xhigh;AIME 26 得分 95.83,与多个领先模型持平;GPQA Diamond 得分 88.27,体现了扎实的专业知识理解与复杂推理能力。

借助 high 与 xhigh 配置选项,开发者可根据任务特征动态分配推理资源:日常工作流使用 high 实现更高效率,复杂推理任务切换至 xhigh 释放模型全部能力上限。

https://huggingface.co/inclusionAI/Ring-2.6-1T#asynchronous-async-rl-training–icepop-algorithm-supporting-stable-reinforcement-learning-for-trillion-parameter-models 异步 Async RL 训练 + IcePop 算法:支持万亿参数模型的稳定强化学习

对万亿参数模型进行强化学习训练本身就是一项巨大的工程挑战。在传统同步 RL 训练中,策略生成(rollout)与梯度更新紧密耦合,导致:

  • GPU 等待:GPU 资源利用率低,大量算力浪费在同步等待上;
  • 训练吞吐量不足:训练周期延长,迭代速度受限;
  • 长周期训练不稳定:长时间训练中易出现策略崩溃或奖励信号退化。

Ring-2.6-1T 采用异步(Async)强化学习训练架构,将策略采样与参数更新解耦为独立流水线,实现:

  • 训练吞吐量与资源利用率显著提升:采样与更新并行执行,GPU 利用率大幅提高,训练效率提升数倍;
  • 支持更长的训练周期:解耦架构天然适配大规模、长时间持续训练,消除同步瓶颈导致的训练中断。

在此基础上,我们将 Ring-1T 的 IcePop 算法应用于异步 RL 训练过程,解决了训练不稳定性问题。这一训练范式的创新,使我们能够对万亿参数模型进行充分且稳定的强化学习优化,将 Agent 执行能力与推理能力推向新的上限。我们将在后续技术报告中公布 Stick-Breaking 算法结合 Async 架构的详细内容。

https://huggingface.co/inclusionAI/Ring-2.6-1T#quickstart 快速开始

https://huggingface.co/inclusionAI/Ring-2.6-1T#%F0%9F%9A%80-try-online 🚀 在线体验

https://ling.tbox.cn/chat

https://huggingface.co/inclusionAI/Ring-2.6-1T#deployment 部署

https://huggingface.co/inclusionAI/Ring-2.6-1T#sglang SGLang

https://huggingface.co/inclusionAI/Ring-2.6-1T#environment-preparation 环境准备

我们稍后会将模型提交至 SGLang 官方发布版,现在可以按照以下步骤准备环境:

`` git clone -b ling_2_5 [email protected]:antgroup/sglang.git cd sglang

安装 Python 包

pip install –upgrade pip pip install -e “python” ``

https://huggingface.co/inclusionAI/Ring-2.6-1T#run-inference 运行推理

SGLang 目前同时支持 BF16 和 FP8 模型。具体取决于 \{MODEL\_PATH\} 中模型的 dtype。

以下示例展示了如何使用多 GPU 节点运行 Ring-2.6-1T,其中主节点 IP 为 \{MASTER\_IP\},服务器端口为 \{PORT\}

  • 启动服务器:

``

节点 0:

python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 0

节点 1:

python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 1

节点 2:

python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 2

节点 3:

python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 3

此仅为示例,请根据实际环境调整参数。

``

  • 客户端:

curl -s http://${MASTER_IP}:${PORT}/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{"model": "auto", "messages": [{"role": "user", "content": "What is the capital of France?"}]}'

https://huggingface.co/inclusionAI/Ring-2.6-1T#license 许可证

本代码仓库采用 MIT 许可证 (https://github.com/inclusionAI/Ring-V2.5/blob/main/LICENSE)。

– (https://ospo-insights.oss-cn-hangzhou.aliyuncs.com/iai-hf-models/Ring-2.5-1T.gif)

相似文章

Ring 2.6 1T

Reddit r/LocalLLaMA

Ring 2.6 1T,一个拥有开放权重的1万亿参数模型,已在Open Router上免费提供,预计将全面公开发布。

AIDC-AI/Ovis2.6-80B-A3B · Hugging Face

Reddit r/LocalLLaMA

Ovis2.6-80B-A3B 是 AIDC-AI 最新发布的多模态大语言模型,采用混合专家(Mixture-of-Experts)架构,总参数达 80B,但在推理时仅激活 3B 参数。该模型具备增强的长上下文处理能力、高分辨率理解能力以及主动视觉推理能力。

你实际在生产环境中运行的是哪个推理模型?

Reddit r/AI_Agents

一位从业者寻求关于 o3、Claude extended thinking、Gemini 2.5 Pro 和 Ring 2.6 1T 等推理模型在生产环境中的代理任务上的真实反馈,质疑 Ring 的双推理强度模式在实际表现与基准测试之间的差异。

MolmoAct2:面向真实场景部署的动作推理模型

Papers with Code Trending

Allen AI 发布了 MolmoAct2,这是一款专为真实场景机器人部署设计的开放权重视觉-语言-动作模型,具备新数据集、开放动作分词器以及自适应推理以降低延迟等特性。