标签
该推文声称开源模型 Kimi K2.6 已超越 Claude Opus 4.7,标志着开源 AI 在短短三个月内取得重大突破。文中附上了完整指南与提示词的链接,以便验证对比结果。
本文比较了领域训练的小型语言模型(Olava Extract)与前沿LLMs在结构化合同提取中的表现,结果显示该专业化模型获得了更高的F1分数且成本显著降低。
个人基准显示:Gemma-4E4B 在路由任务上称王,Qwen-3.6 27/30B 编码力压 Gemma-4,而 MiniMax M2.7 MXFP4 在 OpenCode 的 llama-swap 工作流中取代巨型 Qwen-3.5 量化模型。
我一直在思考:如果给不同AI完全相同的起点和规则,它们最终会收敛到同一策略,还是长期表现不同?我搭了个简单模拟:它们同在地球起步,资源一致,要应对扩张、能源、随机事件,最终目标是造出戴森球。意外的是,它们很快做出不同选择。好奇大家怎么看?你觉得它们会趋同还是保持差异?想看细节我可以分享。
Gemma 4-26b-a4b-it 基本是个基础扎实、能稳妥完成任务的 B 等生。Qwen3.6-35b-a3b 则是考出 A+ 的优等生,做完任务后还有余力搞点锦上添花的发挥。在我的 16GB 显存显卡上,两款模型运行速度相当。测试环境为 Windows 下的 LM Studio,采用推荐推理设置。使用的模型:unsloth/gemma-4-26B-A4B-it-UD-Q4_K_S 与 AesSedai/Qwen3.6-35B-A3B IQ4_XS。大家有不同意见吗?**更新:** 看来我之前用 Gemma 4 的方式不太对。[Sadman782 的评论](https://www.redd