如果你使用Windows,请禁用内存压缩以消除瓶颈!

Reddit r/LocalLLaMA 工具

摘要

一位用户分享了通过命令'Disable-mmagent -mc'禁用内存压缩来解决Windows 11中AMD GPU运行AI模型时的性能瓶颈问题。

这是对以下帖子的跟进:[https://www.reddit.com/r/LocalLLaMA/comments/1ta3ben/dont\_you\_have\_issues\_in\_w11\_with\_amd\_gpu\_where/](https://www.reddit.com/r/LocalLLaMA/comments/1ta3ben/dont_you_have_issues_in_w11_with_amd_gpu_where/) 我通过管理员终端禁用内存压缩解决了这个无休止的问题:`Disable-mmagent -mc` 所有问题都解决了,我可以打开任何游戏,AI也不会像以前那样变慢(即使游戏关闭时也一样!)
查看原文

相似文章

停止浪费电力

Reddit r/LocalLLaMA

作者展示了如何在通过 llama.cpp 运行量化 Qwen 模型时,在不牺牲推理速度的前提下,将 RTX 4090 的功耗降低高达 40%。通过 nvidia-smi 限制 GPU 功耗上限并调整 llama-server 参数,用户可显著降低发热与噪音,并延长硬件使用寿命。