@AYi_AInotes: MCP协议真的要成为AI时代的HTTP了,现在所有的本地AI工具都在往MCP靠,未来的Agent和工具都能无缝互联了吧 YC CEO亲自下场打磨的GBrain,今天发布了v0.31.1版本。 这不是一个小补丁,属意真正的架构级升级: 一个…
摘要
GBrain v0.31.1发布重大架构升级,通过MCP协议实现中央大脑统一管理,解决了多端同步和记忆割裂问题。YC CEO Garry Tan亲自开发该工具,强调本地个人智能基础设施的未来价值。
MCP协议真的要成为AI时代的HTTP了,现在所有的本地AI工具都在往MCP靠,未来的Agent和工具都能无缝互联了吧 YC CEO亲自下场打磨的GBrain,今天发布了v0.31.1版本。 这不是一个小补丁,属意真正的架构级升级: 一个家庭服务器跑中央大脑,所有电脑、手机、所有AI Agent,全部通过MCP协议远程连接。 体验和本地运行一模一样,再也没有同步问题,再也没有记忆割裂。 之前最蠢的bug终于被彻底修好了: 以前的瘦客户端就是个半成品,你连了远程服务器, 它还偷偷在本地开个空的PGLite数据库,跑38次迁移之后告诉你“没有找到任何结果”。 现在v0.31.1强制所有读写全部走远程,10万页的知识库,搜什么都能精准命中。 最有意思的是,这个bug是Garry自己的个人Agent Neuromancer在生产环境踩的。 更新日志里直接写了“Hermes/Neuromancer hit this in production”。 AI自己在生产环境发现了基础设施的bug,然后被写进了官方更新日志。 这可能是人类历史上第一次。 这才是真正的大招,以前我们跑本地AI,是每个设备自己养一个大脑。 电脑上一个,手机上一个,每个Agent又各有一个。 同步慢,不一致,浪费资源,永远拼不成一个完整的你。 现在反过来了: 一个大脑,养所有设备和所有Agent。 你家的旧电脑或者树莓派加个GPU,就能跑一个10万页的私人知识库。 你的Claude Code、OpenClaw、Neuromancer,全部连同一个大脑。 你在电脑上读的论文,手机上记的笔记,Agent做的研究,全部存在同一个地方。 所有AI共享你的全部记忆,再也不会问你“你刚才说什么来着”。 Garry Tan作为YC的掌门人,不去投那些估值几十亿的大模型公司,反而天天熬夜写一个开源的个人记忆工具。 这个信号已经不能更明显了: 下一波AI的最大机会,根本不在云端的大模型。 在本地,在你自己的电脑里,在完全属于你自己的、可控的、永久的个人智能基础设施。 个人AI正在走和企业软件一模一样的路。 从单机版,到客户端-服务器架构。 今天GBrain跨出了这一步,个人Jarvis就真的从玩具变成了基础设施。
相似文章
@garrytan: GBrain v0.31.1 刚刚发布了真正的 MCP 瘦客户端支持。基本上你可以运行一个“家庭 GBrain 服务器”,其他设…
GBrain v0.31.1 已发布,增加了对真实 MCP 瘦客户端的支持,实现了集中式的家庭服务器架构,其他设备可以通过 MCP 连接。
@AlphaSignalAI:你现在只需 30 分钟就能为 AI 配备一个完整运行的“大脑”。GBrain 是面向 AI Agent 的开源记忆层。它……
GBrain 是一款面向 AI Agent 的开源记忆层,可将会议、邮件、通话和笔记转化为可检索的知识库,使 AI Agent 在 30 分钟部署完成后即可读写上下文信息。
@akshay_pachaar:GBrain 究竟是什么?(Y Combinator CEO 的个人智能体大脑)你见过的每一个智能体记忆工具都解决了一个简单的问题……
GBrain 是由 YC CEO Garry Tan 创建的开源 AI 智能体记忆工具,它利用自布线知识图谱和基于 Markdown 的记录系统,自主丰富并复利智能体的知识。
@berryxia: YC CEO Garry的这套知识复利效应就像滚雪球一样! 系统开源免费,逻辑清晰。 强烈按头学习了! Garry Tan(Y Combinator CEO)深夜 coding 到 2AM 的真实原因来了! AI 让他重新变回 build…
YC CEO Garry Tan 开源了其个人 AI 操作系统 GBrain,该系统利用 AI 代理实现书籍深度镜像、会议自动预习和技能化工作流,旨在构建具有复利效应的个人知识管理系统。
@berryxia: Agent 记忆真是太特么卷了啊! 不得不说,这个赛道越多人加入越爽啊! Tencent AI团队花了整整6个月,就死磕一个问题:AI agent长会话里疯狂丢上下文。 他们最后把一套记忆系统做完,直接开源了。 我看完他们的分享,最大的感…
腾讯AI团队开源了Agent记忆系统,通过实时上下文压缩、Mermaid任务地图和Persona记忆三种方法,显著提升长对话中的token效率和agent一致性,token消耗降低61%,人格一致性从48%提升至76%。