@svpino:首次,我觉得开源权重模型已无法忽视。我们正处于这些模型具有竞争…

X AI KOLs Following 模型

摘要

Santiago (@svpino) 强调 MiniMax-M2.7,一个 230B 参数的开源权重模型,能与 Opus 4.6 和 GPT-5.4 等顶级专有模型相抗衡,在 SambaNova 上以低成本实现 440+ tokens/s 的推理速度。

首次,我觉得开源权重模型已无法忽视。我们正处于这些模型与顶尖模型竞争的局面。MiniMax-M2.7 是最新出品的猛兽,我以 440+ tokens/s 的速度运行它。230B 参数,真是一头猛兽。作为对比,我发现 Gemma4 31b 对很多我做的事情已经足够好了,所以想象一下额外增加 200B 参数会带来什么。当然,我无法在本地运行 MiniMax-M2.7,所以我使用 SambaNova。 • 极快的推理速度(可能是市场上最快的之一) • 极其便宜(大约是你为专有模型支付的 5%) • MiniMax 2.7 在 SWE-Pro 上得分为 56.22%,在 Terminal Bench 2 上为 57.0%,在 SWE Multilingual 上为 76.5% 这使其与 Opus 4.6/GPT-5.4 处于同一水平,区别在于 MiniMax 是开源权重。我录制了一段 MiniMax-M2.7 在 SambaNova 上运行的实时视频,这样你就能感受一下它的速度。这里我没有使用流式传输。该模型持续以约 440 tokens/秒的速度运行。使用这个在线测试工具测试 MiniMax M2.7:https://fandf.co/41uJXzw 感谢团队与我合作撰写此篇文章。
查看原文

相似文章

MiniMaxAI/MiniMax-M2.7

Hugging Face Models Trending

MiniMaxAI发布了MiniMax-M2.7,这是一个开放权重模型,具备自我进化能力、先进的智能体团队支持,并在软件工程基准测试中表现出色(SWE-Pro上56.22%,MLE Bench Lite上66.6%奖牌率),在生产事故恢复和专业工作任务中有显著应用。

@no_stp_on_snek: https://x.com/no_stp_on_snek/status/2052833502475833384

X AI KOLs Following

使用 Qwen2.5-32B-Instruct 搭配 longctx 和 vllm-turboquant 的单个 AMD MI300X 开源技术栈,在 MRCR v2 百万级上下文基准测试中取得了与 SubQ 闭源模型(0.659)相竞争的结果(0.601-0.688),表明开源权重方法已接近达到同等水平。