rocm

标签

Cards List
#rocm

vllm-project/vllm v0.21.1rc0: [ROCm][CI] Stage B 门控 (#42025)

GitHub Releases Watchlist · 17小时前 缓存

vLLM 发布版本 0.21.1rc0,重点关注 ROCm CI 门控改进。

0 人收藏 0 人点赞
#rocm

Linux - 为什么 llama.cpp ROCm 的 KV 缓存消耗比 Vulkan 多那么多显存?

Reddit r/LocalLLaMA · 昨天

一位用户报告称,在使用相同模型和设置的情况下,llama.cpp 的 ROCm 后端比 Vulkan 后端消耗的 KV 缓存显存显著更多,这引发了对其潜在原因的探究。

0 人收藏 0 人点赞
#rocm

TurboQuant+MTP在ROCm(Llama CPP)上的实现

Reddit r/LocalLLaMA · 昨天

一位开发者成功在llama.cpp中让TurboQuant TBQ4 KV缓存和多Token预测在AMD ROCm上针对RDNA3 GPU运行,实现在24GB显存上支持64k上下文,并具有有竞争力的token速率。

0 人收藏 0 人点赞
#rocm

如何在 AMD Strix Halo 及其他非主流 AMD 硬件上微调大语言模型 (LLMs)

Reddit r/LocalLLaMA · 4天前

本文提供了在 AMD Strix Halo 硬件上使用监督微调 (SFT) 和 LoRA 方法微调大语言模型 (LLMs) 的教程,涵盖 Linux 及原生 Windows 环境。

0 人收藏 0 人点赞
#rocm

vLLM ROCm 已作为实验性后端添加到 Lemonade 中。

Reddit r/LocalLLaMA · 2026-05-08

Lemonade 为 vLLM 添加了一个实验性的 ROCm 后端,使用户能够通过简单的命令在 AMD GPU 上轻松运行 safetensors 格式的大语言模型。

0 人收藏 0 人点赞
#rocm

2026年中ROCm状态 [D]

Reddit r/MachineLearning · 2026-05-07

作者询问2026年中AMD的ROCm生态系统在AI训练领域的当前可行性,将其与NVIDIA的CUDA进行比较,并询问它是否已达到PyTorch的“开箱即用”阶段。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈