@ggerganov:llama-server -hf ggml-org/Qwen3.6-27B-GGUF --spec-default

X AI KOLs Following 工具

摘要

Georgi Gerganov 分享了一条一行命令,用 llama-server 以默认投机解码设置启动量化版 27B Qwen3.6 模型。

llama-server -hf ggml-org/Qwen3.6-27B-GGUF --spec-default
查看原文
查看缓存全文

缓存时间: 2026/04/22 17:02

llama-server -hf ggml-org/Qwen3.6-27B-GGUF –spec-default

相似文章

havenoammo/Qwen3.6-27B-MTP-UD-GGUF

Hugging Face Models Trending

该 Hugging Face 仓库提供了 Qwen3.6-27B 的 GGUF 文件,这些文件在 Unsloth UD XL 量化版本的基础上嫁接了多 Token 预测 (MTP) 层。它还包含了构建支持 MTP 的 llama.cpp 的说明,以实现投机解码。