我应该买哪台电脑:Mac还是自组5090?[D]
摘要
用户寻求建议,询问是购买Mac(M5)还是自组的RTX 5090用于机器学习项目,涉及微调、自定义管道以及图像/视频密集型工作流,同时对苹果的MLX框架作为NVIDIA CUDA的替代方案感到好奇。
我70%的项目是微调预训练模型或使用它们构建自定义管道;另外30%是从头开始训练模型。我的大部分项目都是图像/视频密集型的机器学习。有时也会涉及LLM。我知道,对于严肃的模型训练而言,选择Mac可能有点反直觉,但由于我的许多项目依赖大型预训练模型,显存确实很重要。而且,苹果似乎正在用他们自己的MLX追赶NVIDIA的CUDA,所以也许在M5 Mac机器上训练也没那么糟?有没有尝试过在M5 MAX上使用MLX进行训练的人分享一下经验?如果你是我,你会选择什么?(我知道Pro 6000能满足我所有的需求,但我现在真的买不起……)
相似文章
为本地运行大语言模型挑选 Mac Mini——你实际会买哪款?
一篇社区讨论帖,征求关于购买哪种 Mac Mini 配置(M4、M2 Pro 或 M1 Max)以配合 Ollama 和编程助手运行本地大语言模型的建议;由于传闻 M5 即将发布且当前存在供应短缺,使得选购决策变得复杂。
@Michaelzsguo: 两天前,我询问是否应该购买 Mac Studio 用于本地运行 LLM。我由衷地感叹收到的反馈如此优质且丰…
作者分享了一份针对本地运行大语言模型(LLM)的硬件购买指南,综合了社区反馈,对比了 Mac Studio、NVIDIA 和 AMD 的选项。
你可以在Apple Silicon Mac上通过PCI穿透进行CUDA推理
本文探讨了通过Thunderbolt在Apple Silicon Mac上使用外部NVIDIA RTX 5090 GPU进行CUDA推理和游戏的可行性,涵盖了tinygrad eGPU驱动以及向Linux虚拟机进行PCI穿透等方法。
2台配备 512GB 内存的 M3 Ultra Mac Studio
硬件投入约 2.5 万美元。告诉我你们希望我在这两台设备上部署什么模型,我会协助测试。目前我已通过 Exo 后端跑通了 DeepSeek v3.2 Q8 版本;当前每台设备均在运行 GLM 5.1 Q4(正在排查为何 Exo 无法加载 Q8 版本)。静候社区完成 Kimi 2.6 针对 MLX/mmap 的优化适配。
@Prince_Canuma:我的 MLX 与研究家用计算平台:• M3 Ultra — 512GB(由社区与 @wai_protocol 赞助)• RTX PRO 6000 — 96GB…
一位研究人员分享了用于 MLX 和 AI 研究的家用计算配置,包含配备 512GB 的 M3 Ultra、配备 96GB 的 RTX PRO 6000,以及用于模型移植与压力测试的配备 96GB 的 M3 Max。