rtx-5090

标签

Cards List
#rtx-5090

根据我的需求,购买5090值得吗?

Reddit r/LocalLLaMA · 5小时前

用户询问,相较于云计算的替代方案,花费约5500美元购买RTX 5090及高端PC用于LLM实验和学习是否值得。

0 人收藏 0 人点赞
#rtx-5090

Gemma 4 26B 在单块 RTX 5090 上达到 600 Tok/s

Reddit r/LocalLLaMA · 5天前

一项基准测试显示,使用 vLLM 搭配 DFlash 投机解码,在单块 RTX 5090 上将 Gemma 4 26B 的推理速度提升至约 578 tokens/s,相比基线实现了 2.56 倍的加速。

0 人收藏 0 人点赞
#rtx-5090

试了 Qwen3.6-27B-UD-Q6_K_XL.gguf 配 CloudeCode,真不敢相信居然能用

Reddit r/LocalLLaMA · 2026-04-22

用户报告称,在 RTX 5090 本地运行 Qwen3-27B-UD-Q6_K_XL.gguf,200K 上下文速度约 50 tok/s,编码表现出乎意料地可用,标志着本地模型质量大幅跃升。

0 人收藏 0 人点赞
#rtx-5090

@CuiMao: 你别说,你真别说,本地跑LM studio接一个Claude code,效果相当满意,5090开64k上下文,能跑200+token。

X AI KOLs Timeline · 2026-04-20 缓存

用户分享在本地使用LM Studio配合Claude Code的运行体验,称使用RTX 5090可实现64k上下文并达到每秒200+ token的生成速度,效果令人满意。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈