Osaurus 为您的 Mac 带来本地与云端 AI 模型

TechCrunch AI 产品

摘要

Osaurus 是一款面向 Mac 的开源 LLM 服务器,让用户无缝切换本地与云端 AI 模型,同时将文件和工具保留在自有硬件上,并通过虚拟沙盒解决安全顾虑。

Osaurus 将本地与云端 AI 模型集成于一款 Mac 应用中,让用户的内存、文件与工具保留在自有硬件上。
查看原文
查看缓存全文

缓存时间: 2026/05/16 03:28

# Osaurus 将本地和云端 AI 模型带到你的 Mac | TechCrunch 来源:https://techcrunch.com/2026/05/15/osaurus-brings-both-local-and-cloud-ai-models-to-your-mac/ 随着 AI 模型日益商品化,初创公司正在争相构建位于这些模型之上的软件层。这个领域的一个有趣新入者是 [Osaurus](https://osaurus.ai/),一个开源、仅适用于 Apple 的 LLM 服务器,允许用户在本地或云端的不同本地 AI 模型之间切换,同时将他们的文件、工具全部保留在自己的硬件上。 Osaurus 源自一个桌面 AI 伴侣项目 [Dinoki](https://github.com/dinoki-ai) 的想法,Osaurus 联合创始人 [Terence Pae](https://www.linkedin.com/in/tdpae/) 将其描述为一种“AI 驱动的 Clippy”。Dinoki 的客户曾问他:如果用户仍然需要为 token(AI 公司按使用量计费的单元,用于处理提示和生成回复)付费,为什么还要购买这个应用? 这促使 Pae 更深入地思考本地运行 AI 的问题。 “这就是 Osaurus 的起点,”曾担任特斯拉和 Netflix 软件工程师的 Pae 在接受 TechCrunch 电话采访时表示。他解释说,这个想法是尝试在本地运行一个 AI 助手。“你可以在 Mac 上本地完成几乎所有事情,比如浏览文件、访问浏览器、访问系统配置。我认为这将是让 Osaurus 定位为个人 AI 的好方法。” Pae 开始以开源项目的形式公开构建这个工具,在过程中不断添加功能和修复错误。 **图片来源:**Osaurus, Inc. 如今,Osaurus 可以灵活连接本地托管的 AI 模型或像 OpenAI 和 Anthropic 这样的云提供商。用户可以自由选择正在使用的 AI 模型,并将 AI 体验的其他方面(如模型自身的记忆、文件或工具)保留在自己的硬件上。 鉴于不同 AI 模型各有优势,这个系统的优点是用户可以根据需求切换到最适合的 AI 模型。 这种结构使 Osaurus 成为所谓的“harness”——一个通过单一界面连接不同 AI 模型、工具和工作流的控制层,类似于 [OpenClaw](https://techcrunch.com/2026/02/16/after-all-the-hype-some-ai-experts-dont-think-openclaw-is-all-that-exciting/) 或 [Hermes](https://github.com/nousresearch/hermes-agent) 等工具。然而,不同之处在于,这些工具通常面向熟悉终端的开发者。而且,有时像 OpenClaw 这样,它们可能存在安全隐患和漏洞。 而 Osaurus 则提供了一个易于使用的界面,普通消费者也能使用,并通过在硬件隔离的虚拟沙盒中运行来应对安全问题。这限制了 AI 在特定范围内的活动,保护了你的计算机和数据安全。 **图片来源:**Osaurus, Inc. 当然,在用户自己的机器上运行 AI 模型仍处于早期阶段,因为它非常消耗资源且依赖硬件。要运行本地模型,你的系统至少需要 64GB 内存。对于运行更大的模型(如 DeepSeek v4),Pae 建议使用约 128GB 内存的系统。 但 Pae 相信,随着时间的推移,本地 AI 的需求会降低。 “我能看到它的潜力,因为每瓦特的智能(这是本地 AI 的衡量指标)在显著提升。它有自己的创新曲线。去年,本地 AI 几乎无法完成句子,但今天它已经可以运行工具、编写代码、访问浏览器、从亚马逊订购东西……它正在变得越来越好,”他说。 **图片来源:**Osaurus, Inc. 目前,Osaurus 可以运行 MiniMax M2.5、Gemma 4、Qwen3.6、GPT-OSS、Llama、DeepSeek V4 等模型。它还支持 Apple 的本地基础模型、Liquid AI 的 LFM 系列本地模型,并且可以连接到云端提供商:OpenAI、Anthropic、Gemini、xAI/Grok、Venice AI、OpenRouter、Ollama 和 LM Studio。 作为一个完整的 MCP(模型上下文协议)服务器,你还可以让任何兼容 MCP 的客户端访问你的工具。此外,它内置了超过 20 个原生插件,用于邮件、日历、Vision、macOS 使用、XLSX、PPTX、浏览器、音乐、Git、文件系统、搜索、Fetch 等。 最近,Osaurus 还更新了语音功能。 据其网站显示,该项目上线近一年以来,下载量已超过 112,000 次。该应用与 [Ollama](https://ollama.com/)、[Msty](https://msty.ai/blog/getting-started-with-msty-studio/)、[LM Studio](https://lmstudio.ai/) 等其他允许用户本地运行模型的工具竞争,但提供了差异化的功能集,并对非开发者用户更加友好。 目前,Osaurus 的创始人(包括联合创始人 Sam Yoo)正在参加纽约的初创加速器 Alliance。他们也在考虑下一步计划,可能将 Osaurus 提供给企业,例如法律或医疗健康领域的企业,在这些领域运行本地 LLM 可以解决隐私问题。 随着本地 AI 模型能力的增长,团队认为这可能会降低对 AI 数据中心的需求。 “我们看到 AI 领域出现了爆炸性增长,[云 AI 提供商] 不得不通过数据中心和基础设施进行扩展,但我们觉得人们还没有真正看到本地 AI 的价值,”Pae 说。“与其依赖云端,他们实际上可以在本地部署一台 Mac Studio,而且功耗会大幅降低。你仍然拥有云的能力,但不需要依赖数据中心来运行那个 AI,”他补充道。 *当您通过我们文章中的链接购买商品时,我们可能会获得少量佣金(https://techcrunch.com/techcrunch-affiliate-monetization-standards/)。这不会影响我们的编辑独立性。*

相似文章

本地模型优化(3 分钟阅读)

TLDR AI

本文分析了在 MacBook Pro 上本地运行 AI 推理的可行性,对比了本地 Qwen 35B 模型与云端 Claude Opus 4.5。结论是,对于常规任务,本地模型速度快 2 倍,尽管在能力上略有差距,但仍是日常工作量中一半任务的实用选择。

AI跨平台解决方案

Reddit r/ArtificialInteligence

文章讨论了标准化跨平台AI解决方案的需求,使用户能够在本地模型和云端模型(如Claude)之间无缝切换,并提到Docker的MCP连接器作为一种潜在的统一方法。

本地 AI 应成为常态

Hacker News Top

本文指出,出于隐私和可靠性方面的顾虑,不应依赖云端托管的 AI API,并倡导采用设备端 AI 处理模式,文中以一款利用 Apple 本地模型 API 的原生 iOS 应用为例进行了说明。