@davis7:@0xSero 帮我把本地模型配置好了,我没想到它们现在竟然这么强大了。这算是前沿(frontier)级别了吗……
摘要
作者强调了在 RTX 5090 上本地运行开源 Qwen 3.6-27B 模型的卓越能力,指出其在编程任务上的强劲表现,并与商业模型进行了对比,尽管本地部署过程颇具挑战性。
@0xSero 帮我把本地模型正确配置好了,我确实没想到这些模型已经发展到这个地步了。这算是前沿(frontier)级别吗?算不上。但考虑到它只是跑在我的 5090 显卡上,性能已经相当惊艳了。在几个编程任务上的初步测试表明,Qwen 3.6-27B 模型(未启用推理功能时)的表现大致与 sonnet 4 持平,甚至可能更强,真的很令人印象深刻。不过,搭建本地模型并不容易。我现在掌握的细节还不够多,没法详细展开,只知道如果想获得良好的使用体验,你必须得懂点行内门道。开箱即用的预设配置远不如手动调优后的效果好。
相似文章
试了 Qwen3.6-27B-UD-Q6_K_XL.gguf 配 CloudeCode,真不敢相信居然能用
用户报告称,在 RTX 5090 本地运行 Qwen3-27B-UD-Q6_K_XL.gguf,200K 上下文速度约 50 tok/s,编码表现出乎意料地可用,标志着本地模型质量大幅跃升。
RTX Pro 4500 Blackwell - Qwen 3.6 27B?
一位开发者分享了在搭载 NVIDIA RTX Pro 4500 Blackwell 显卡的服务器上,使用 llama.cpp 运行 Qwen3.6-27B 模型的本地推理基准测试数据及 systemd 配置。该帖文征集了提升吞吐量的优化建议,并探讨了更大模型的潜在应用场景。
我的 7900XTX 搭配 qwen 3.6 实现自主运行 👀 哇 😍
用户演示了在 AMD 7900 XTX 显卡上本地自主运行 Qwen 3.6 并创建 Android 应用——这一曾被视为科幻的场景如今已成为现实。
“Browser OS”由Qwen 3.6 35B实现:这是我从本地模型获得的最佳结果
一位用户报告称,通过Qwen 3.6 35B在本地运行'Browser OS'实现,取得了令人印象深刻的结果,凸显了该模型在不依赖云端的情况下执行复杂任务的能力。
@seclink: 这家伙刚刚在一块单张 3090 显卡上,跑出了 Qwen 3.5-27B Dense 模型 134 tok/s 的速度,以及新版 Qwen 3.6-27B 模型 73 tok/s 的速度。2026 年的开源社区,其发展速度简直如神速一般。…
A single RTX 3090 achieves 134 tok/s on the new 27B Qwen 3.5 Dense and 73 tok/s on Qwen 3.6-27B using fused kernels and speculative decoding, with same-day GGUF releases.