@svpino: 我买了一台 GEEKOM A9 Max AI。• AMD Ryzen AI 9 HX 370 • 32GB 内存 • 1TB 固态硬盘 我在上面安装了 @OmarchyLinux。漂亮的小…
摘要
购买了一台搭载 AMD Ryzen AI 9 HX 370、32GB 内存、1TB 固态硬盘的 GEEKOM A9 Max AI 迷你主机,安装了 OmarchyLinux;被称为千元以内小巧、安静且性能强劲的配置。
我买了一台 GEEKOM A9 Max AI。• AMD Ryzen AI 9 HX 370 • 32GB 内存 • 1TB 固态硬盘 我在上面安装了 @OmarchyLinux。漂亮的迷你电脑。小巧、安静、性能强劲。市面上有很多不错的选择。你完全可以用不到1000美元组装一套很棒的配置。不过内存和固态硬盘的价格还是有点离谱,所以确保你买的东西可以升级。
相似文章
@Prince_Canuma:我的 MLX 与研究家用计算平台:• M3 Ultra — 512GB(由社区与 @wai_protocol 赞助)• RTX PRO 6000 — 96GB…
一位研究人员分享了用于 MLX 和 AI 研究的家用计算配置,包含配备 512GB 的 M3 Ultra、配备 96GB 的 RTX PRO 6000,以及用于模型移植与压力测试的配备 96GB 的 M3 Max。
@Michaelzsguo: 两天前,我询问是否应该购买 Mac Studio 用于本地运行 LLM。我由衷地感叹收到的反馈如此优质且丰…
作者分享了一份针对本地运行大语言模型(LLM)的硬件购买指南,综合了社区反馈,对比了 Mac Studio、NVIDIA 和 AMD 的选项。
@0xSero:16GB-64GB用户狂喜,地表最强本地模型降临
一款专为16-64GB内存系统优化的新本地AI模型被盛赞为该硬件区间的最佳选择。
@pupposandro:在 Strix Halo 上比 llama.cpp 快 2.5 倍。我们刚刚为 AMD Ryzen AI MAX+ 395 iGPU(gfx1151,……)发布了 DFlash + PFlash
一套新工具集(DFlash + PFlash)在 AMD Ryzen AI MAX+ 395 iGPU 上实现了比 llama.cpp 快 2.5 倍的推理速度,展示了 Qwen3.6-27B 在 128 GiB 统一内存下的显著加速效果。
@remilouf: 在 @julien_c 的推文之后,我买了一台配备 128B 统一内存的 MacBook Pro,并开始将 Qwen3.6 作为我的日常驱…
作者分享了在配备 128GB 统一内存的 MacBook Pro 上运行 Qwen3.6 模型的经验,称赞了苹果硬件在本地 AI 推理方面的效率。