@jun_song: 几周之内,所有拥有 128GB 内存的 Mac 用户都能本地运行无审查版的 Opus-4.6。该版本将由 @d... 制作的 Minimax-M3.0-JANGTQ-CRACK。
摘要
该推文声称,一个基于 Minimax-M3.0 并由 alignnai 制作的 Opus 4.6 无审查版本,很快就能在 128GB 内存的 Mac 以及配备 24GB 显存的 GPU 上本地运行。
几周之内,所有拥有 128GB 内存的 Mac 用户都能本地运行无审查版的 Opus-4.6。
该版本将由 @dealignai 制作的 Minimax-M3.0-JANGTQ-CRACK。
开源社区正在努力将其优化至能在 24GB 显存中运行。
本地 LLM 的未来前景非常光明。
查看缓存全文
缓存时间: 2026/05/13 10:18
几周之内,每位拥有 128GB 内存的 Mac 用户都将在本地运行未加审查的 Opus-4.6 模型。
届时将部署的是由 @dealignai 发布的 Minimax-M3.0-JANGTQ-CRACK。
开源社区正在努力将这些模型优化到适配 24GB 显存的环境。
本地大语言模型的未来令人充满期待。
相似文章
既然 Qwen 这么强了,是不是该入手 128 GB 的 M5 Max?
用户考虑升级到 128 GB M5 Max,以便本地运行性能逼近 Opus 4.5 的改进版 Qwen 27B 模型。
JANGQ-AI/MiniMax-M2.7-JANGTQ_K : MiniMax M2.7 的混合位量化版本 - 磁盘占用 74 GB
发布了 MiniMax M2.7 模型的混合位量化版本,优化至 74 GB,以便在 Apple Silicon 设备上高效进行本地推理。
@remilouf: 在 @julien_c 的推文之后,我买了一台配备 128B 统一内存的 MacBook Pro,并开始将 Qwen3.6 作为我的日常驱…
作者分享了在配备 128GB 统一内存的 MacBook Pro 上运行 Qwen3.6 模型的经验,称赞了苹果硬件在本地 AI 推理方面的效率。
@PandaTalk8: 这个测试效果太惊艳了。 原贴作者测试了 @antirez 刚刚用 C 写的 DS4 推理引擎,本地部署效果看起来非常快。 好消息时只需要128G内存就可以跑一个相当于gpt-4o 本地模型。 坏消息时需要128G 的Mac book pr…
该文章报道了对 @antirez 使用 C 语言编写的 DS4 推理引擎的测试,指出其在 128G 内存的 MacBook Pro 上运行等效于 GPT-4o 的模型时速度惊人。
@garrytan: 正在下载…在 128GB MacBook Pro 上本地运行,拥有 100 万 token 上下文窗口和据称可用的编程智能体能力,真是
Garry Tan 对一款可在 128GB MacBook Pro 上本地运行的模型感到兴奋,该模型拥有 100 万 token 的上下文窗口和编程智能体能力,他认为这是一个重要里程碑。