inclusionAI/Ring-2.6-1T · Hugging Face
摘要
inclusionAI发布了Ring-2.6-1T,一个万亿参数推理模型,具有增强的代理执行能力、推理努力机制和异步强化学习训练范式,旨在应对复杂的现实世界任务。
查看缓存全文
缓存时间: 2026/05/14 18:35
inclusionAI/Ring-2.6-1T · Hugging Face
来源:https://huggingface.co/inclusionAI/Ring-2.6-1T
🤗Hugging Face (https://huggingface.co/inclusionAI) | 🤖ModelScope (https://modelscope.cn/organization/inclusionAI) | 🐙ling.tbox.cn (https://ling.tbox.cn/chat)
重磅推出 Ring-2.6-1T:一款专为真实世界复杂任务场景设计的万亿参数旗舰推理模型,现面向开发者、研究者及企业环境开放,支持验证、适配与进一步开发。
Ring-2.6-1T 的目标并非单纯追求更大的参数规模,而是解决大模型正在进入的真实生产环境:智能体工作流、工程开发、科研分析、复杂业务系统及企业自动化流程。在这些场景中,模型不仅需要“回答问题”,更需要理解上下文、规划步骤、调用工具、持续执行,并在长周期任务中保持稳定性。
Ring-2.6-1T 在三个方面实现了关键升级:
- 全面增强的 Agent 执行能力:从“能回答”进化为“能执行”,在多步骤任务、工具协同、上下文规划及复杂工作流推进中表现更稳定。
- 推理强度机制:支持 high 和 xhigh 两种推理强度级别,开发者可根据任务复杂度灵活调整思考深度,在效果、速度与成本之间取得更好平衡。
- 创新异步强化学习训练范式:采用 Async RL 架构结合 IcePop 算法,提升万亿参数模型长周期强化学习的训练效率与稳定性,为 Agent 能力与复杂推理提供基础支撑。
https://huggingface.co/inclusionAI/Ring-2.6-1T#model-downloads 模型下载
您可以从下表下载 Ring-2.6-1T。如果您位于中国大陆,我们也在 ModelScope 上提供了模型,以加速下载过程。
注意:如果您对之前的版本感兴趣,请访问 Huggingface (https://huggingface.co/inclusionAI) 或 ModelScope (https://modelscope.cn/organization/inclusionAI) 上的历史模型集合。
https://huggingface.co/inclusionAI/Ring-2.6-1T#agent-capability-from-understanding-tasks-to-continuously-executing-tasks Agent 能力:从“理解任务”到“持续执行任务”
在真实的业务系统中,模型面对的往往不是孤立的问答,而是需要工具协作的连续、多轮、复杂任务。Ring-2.6-1T 针对此类场景专门增强,实现了更稳定的任务分解、步骤规划、工具调用、错误修正与上下文延续。
从基准测试结果来看,Ring-2.6-1T high 在真实任务执行评测中表现卓越:PinchBench 得分 87.60,显著高于 GPT-5.4 xHigh 和 Gemini-3.1-Pro high;ClawEval 得分 63.82,在同类模型中位居前列;Telecom 场景 Tau2-Bench 得分 95.32,与最高分模型差距不到 1 分,展现了其在复杂业务流程、工具协作及行业特定任务中的稳定执行能力。
这意味着 Ring-2.6-1T 不仅理解用户意图,更能实际推动任务在真实工作流中持续执行。无论是在个人助手 Agent、企业流程自动化,还是编码 Agent 场景中的代码生成、任务分解与工程协作中,Ring-2.6-1T 都更像一个可执行、可反馈、可迭代的工作流引擎。
https://huggingface.co/inclusionAI/Ring-2.6-1T#reasoning-effort-high-and-xhigh-configurations–fast-when-needed-deep-when-required 推理强度:High 与 xHigh 配置——需要时快速,必要时深入
在实践中,并非所有任务都需要相同层次的推理资源。一项格式转换或信息整理任务,与一道数学竞赛题或复杂系统分析对模型思考深度的要求截然不同。
为此,Ring-2.6-1T 引入了可调节的推理强度机制,支持 high 和 xhigh 两种推理强度级别。
- high 面向高频 Agent 工作流设计,适用于多轮交互、工具协作、任务分解及生产级默认调用。它在保持高任务完成率的同时,减少不必要的推理 token 开销,使模型在实际工作流中更快、更稳定、更具成本效益。
- xhigh 专为数学、科研、复杂逻辑分析及多路径探索等高难度任务打造,赋予模型更广阔的推理空间。在具有挑战性的推理基准测试中,Ring-2.6-1T xhigh 展现出强大的能力上限:ARC-AGI-V2 得分 66.18,超越 Gemini-3.1-Pro high 和 Claude-Opus-4.7 xhigh;AIME 26 得分 95.83,与多个领先模型持平;GPQA Diamond 得分 88.27,体现了扎实的专业知识理解与复杂推理能力。
借助 high 与 xhigh 配置选项,开发者可根据任务特征动态分配推理资源:日常工作流使用 high 实现更高效率,复杂推理任务切换至 xhigh 释放模型全部能力上限。
https://huggingface.co/inclusionAI/Ring-2.6-1T#asynchronous-async-rl-training–icepop-algorithm-supporting-stable-reinforcement-learning-for-trillion-parameter-models 异步 Async RL 训练 + IcePop 算法:支持万亿参数模型的稳定强化学习
对万亿参数模型进行强化学习训练本身就是一项巨大的工程挑战。在传统同步 RL 训练中,策略生成(rollout)与梯度更新紧密耦合,导致:
- GPU 等待:GPU 资源利用率低,大量算力浪费在同步等待上;
- 训练吞吐量不足:训练周期延长,迭代速度受限;
- 长周期训练不稳定:长时间训练中易出现策略崩溃或奖励信号退化。
Ring-2.6-1T 采用异步(Async)强化学习训练架构,将策略采样与参数更新解耦为独立流水线,实现:
- 训练吞吐量与资源利用率显著提升:采样与更新并行执行,GPU 利用率大幅提高,训练效率提升数倍;
- 支持更长的训练周期:解耦架构天然适配大规模、长时间持续训练,消除同步瓶颈导致的训练中断。
在此基础上,我们将 Ring-1T 的 IcePop 算法应用于异步 RL 训练过程,解决了训练不稳定性问题。这一训练范式的创新,使我们能够对万亿参数模型进行充分且稳定的强化学习优化,将 Agent 执行能力与推理能力推向新的上限。我们将在后续技术报告中公布 Stick-Breaking 算法结合 Async 架构的详细内容。
https://huggingface.co/inclusionAI/Ring-2.6-1T#quickstart 快速开始
https://huggingface.co/inclusionAI/Ring-2.6-1T#%F0%9F%9A%80-try-online 🚀 在线体验
https://ling.tbox.cn/chat
https://huggingface.co/inclusionAI/Ring-2.6-1T#deployment 部署
https://huggingface.co/inclusionAI/Ring-2.6-1T#sglang SGLang
https://huggingface.co/inclusionAI/Ring-2.6-1T#environment-preparation 环境准备
我们稍后会将模型提交至 SGLang 官方发布版,现在可以按照以下步骤准备环境:
`` git clone -b ling_2_5 [email protected]:antgroup/sglang.git cd sglang
安装 Python 包
pip install –upgrade pip pip install -e “python” ``
https://huggingface.co/inclusionAI/Ring-2.6-1T#run-inference 运行推理
SGLang 目前同时支持 BF16 和 FP8 模型。具体取决于 \{MODEL\_PATH\} 中模型的 dtype。
以下示例展示了如何使用多 GPU 节点运行 Ring-2.6-1T,其中主节点 IP 为 \{MASTER\_IP\},服务器端口为 \{PORT\}:
- 启动服务器:
``
节点 0:
python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 0
节点 1:
python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 1
节点 2:
python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 2
节点 3:
python -m sglang.launch_server –model-path $MODEL_PATH –tp-size 8 –pp-size 4 –dp-size 1 –trust-remote-code –dist-init-addr $MASTER_IP:2345 –port $PORT –nnodes 4 –node-rank 3
此仅为示例,请根据实际环境调整参数。
``
- 客户端:
curl -s http://${MASTER_IP}:${PORT}/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{"model": "auto", "messages": [{"role": "user", "content": "What is the capital of France?"}]}'
https://huggingface.co/inclusionAI/Ring-2.6-1T#license 许可证
本代码仓库采用 MIT 许可证 (https://github.com/inclusionAI/Ring-V2.5/blob/main/LICENSE)。
– (https://ospo-insights.oss-cn-hangzhou.aliyuncs.com/iai-hf-models/Ring-2.5-1T.gif)
相似文章
Ring 2.6 1T
Ring 2.6 1T,一个拥有开放权重的1万亿参数模型,已在Open Router上免费提供,预计将全面公开发布。
有人尝试过 OpenRouter 上新推出的 1T 模型(限时免费一周)吗?Ring-2.6-1T 在实际工作中的表现如何?
本文探讨了 OpenRouter 上推出的 Ring-2.6-1T 新模型,重点介绍了其自适应推理能力,以及其在编程智能体和复杂工作流中的适用性。
AIDC-AI/Ovis2.6-80B-A3B · Hugging Face
Ovis2.6-80B-A3B 是 AIDC-AI 最新发布的多模态大语言模型,采用混合专家(Mixture-of-Experts)架构,总参数达 80B,但在推理时仅激活 3B 参数。该模型具备增强的长上下文处理能力、高分辨率理解能力以及主动视觉推理能力。
你实际在生产环境中运行的是哪个推理模型?
一位从业者寻求关于 o3、Claude extended thinking、Gemini 2.5 Pro 和 Ring 2.6 1T 等推理模型在生产环境中的代理任务上的真实反馈,质疑 Ring 的双推理强度模式在实际表现与基准测试之间的差异。
MolmoAct2:面向真实场景部署的动作推理模型
Allen AI 发布了 MolmoAct2,这是一款专为真实场景机器人部署设计的开放权重视觉-语言-动作模型,具备新数据集、开放动作分词器以及自适应推理以降低延迟等特性。