@Prince_Canuma:我的 MLX 与研究家用计算平台:• M3 Ultra — 512GB(由社区与 @wai_protocol 赞助)• RTX PRO 6000 — 96GB…

X AI KOLs Timeline 新闻

摘要

一位研究人员分享了用于 MLX 和 AI 研究的家用计算配置,包含配备 512GB 的 M3 Ultra、配备 96GB 的 RTX PRO 6000,以及用于模型移植与压力测试的配备 96GB 的 M3 Max。

我为 MLX 和研究准备的家用计算平台: • M3 Ultra — 512GB(由社区与 @wai_protocol 赞助) • RTX PRO 6000 — 96GB(由 @jelveh 赞助 / http://oif.ai) • M3 Max — 96GB 我在这里对每一个移植的模型、每一次调优的 Kernel,以及每次发布的新版本进行压力测试。
查看原文

相似文章

2台配备 512GB 内存的 M3 Ultra Mac Studio

Reddit r/LocalLLaMA

硬件投入约 2.5 万美元。告诉我你们希望我在这两台设备上部署什么模型,我会协助测试。目前我已通过 Exo 后端跑通了 DeepSeek v3.2 Q8 版本;当前每台设备均在运行 GLM 5.1 Q4(正在排查为何 Exo 无法加载 Q8 版本)。静候社区完成 Kimi 2.6 针对 MLX/mmap 的优化适配。

RTX 5000 PRO (48GB) 到货了,比我想象的要好。

Reddit r/LocalLLaMA

一位用户分享了购买和设置 RTX 5000 Pro (48GB) GPU 用于本地 LLM 推理的体验,在使用 Qwen3.6-27B-FP8 时获得了令人印象深刻的提示处理速度和 token 生成,并将其与 Mac Studio 和 RTX 5090 等替代方案进行了比较。