unified-memory

标签

Cards List
#unified-memory

@mr_r0b0t: 如果你的设备拥有24-128GB统一内存,并且使用@NousResearch Hermes agents,那么这正适合你!你现在可以运行完全本地的智能体团队…

X AI KOLs Timeline · 3天前 缓存

宣布在拥有24-128GB统一内存的系统上,可以使用NousResearch Hermes agents运行完全本地的智能体团队。每个智能体都有独立的Hermes会话,并通过本地协调器在长时间运行的任务上协同工作。

0 人收藏 0 人点赞
#unified-memory

MTP+GGML_CUDA_ENABLE_UNIFIED_MEMORY=1 - llama.cpp

Reddit r/LocalLLaMA · 4天前

一位用户在 llama.cpp 上使用 GGML_CUDA_ENABLE_UNIFIED_MEMORY=1 标志对令牌生成速度进行基准测试,比较启用和未启用 MTP(多令牌预测)时的性能。结果显示,在 RTX5090 上使用 Qwen3.6-27B 模型时,启用 MTP 后速度从 49 tok/s 显著提升至 64 tok/s。

0 人收藏 0 人点赞
#unified-memory

@MemoryReboot_: 为什么 Mac Studio 是本地 AI 的陷阱——大统一内存看似美好,但适合聊天机器人,不适合 24/7 的工具调用工作流——没有 CUDA 意味着没有 vLLM、SGLang 和张量并行——花 1 万多美元买一台无法升级的“死胡同”设备,就像拥有一辆最高时速只有 100 公里的保时捷

X AI KOLs Timeline · 2026-05-09

文章认为,尽管 Mac Studio 拥有大容量统一内存,但由于缺乏 CUDA 支持且硬件不可升级,它并不适合 24/7 的本地 AI 工作流。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈