@svpino:在本地电脑上跑 Hermes 微调版 Gemma 4 或 Qwen 3.5,简直是最佳组合,不试真的会后悔……

X AI KOLs Following 模型

摘要

开发者称,Hermes 微调版 Gemma 4 与 Qwen 3.5 在本地大模型性能上表现最佳,足以媲美付费 BigAI 模型。

Hermes 微调版 Gemma 4 或 Qwen 3.5 是你在本地能跑出的最强组合。再花一美元订阅 BigAI 模型前,务必先试试这套。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/22 06:20

在本地电脑上跑 Gemma 4 或 Qwen 3.5 的 Hermes,简直就是最佳组合。在你再花一毛钱给大模型厂商之前,一定得先试试这个。

相似文章

通俗版对比:Qwen3.6 35b-a3b 与 Gemma4-26b-a4b-it

Reddit r/LocalLLaMA

Gemma 4-26b-a4b-it 基本是个基础扎实、能稳妥完成任务的 B 等生。Qwen3.6-35b-a3b 则是考出 A+ 的优等生,做完任务后还有余力搞点锦上添花的发挥。在我的 16GB 显存显卡上,两款模型运行速度相当。测试环境为 Windows 下的 LM Studio,采用推荐推理设置。使用的模型:unsloth/gemma-4-26B-A4B-it-UD-Q4_K_S 与 AesSedai/Qwen3.6-35B-A3B IQ4_XS。大家有不同意见吗?**更新:** 看来我之前用 Gemma 4 的方式不太对。[Sadman782 的评论](https://www.redd

推出 Gemma 3

Google DeepMind Blog

Google 推出了 Gemma 3,这是一套轻量级开源模型集合(1B、4B、12B、27B),设计用于在单个 GPU 或 TPU 上运行,支持 140+ 种语言、128k 上下文窗口和多模态功能。这些模型在保持高效性能的同时,性能超越了 Llama 3 和 DeepSeek-V3 等更大的竞品,适合边缘设备部署。