@akshay_pachaar: MCP 与 CLI 之争。在 2025 年的大部分时间里,AI 工程师们对此争论不休。怀疑论者摆出了真实数据:- Playwright MCP …

X AI KOLs Following 新闻

摘要

Anthropic 的“代码模式”(Code Mode)重新定义了 MCP 与 CLI 之争。它让 AI 代理编写代码,通过运行时调用工具,而不是将完整的模式加载到上下文中,从而大幅减少了 token 消耗。这种方法结合了 MCP 的强类型契约与懒加载机制,证明了该协议正在演进,而非走向消亡。

MCP 与 CLI 之争。在 2025 年的大部分时间里,AI 工程师们对此争论不休。怀疑论者摆出了真实数据: - Playwright MCP 消耗 13.7K token - Chrome DevTools MCP 消耗 18K token - 在开始任何工作之前,5 个服务器的配置就消耗了 55K token 支持者们则反驳道: - CLI 在多租户应用中容易出错 - 缺乏类型化契约,因此代理只能猜测输出结果 - 对于不熟悉的 API,代理会浪费多个回合来解析文本 双方都在争论错误的问题。 2025 年 11 月,Anthropic 发布了“使用 MCP 进行代码执行”,并从第一性原理出发重新审视了这一争论。问题从来不在协议本身,而在于一种习惯:即在会话开始时,将每个工具的完整描述全部倾倒在模型的上下文中。再加上这些工具返回的数据,在每一步都通过模型传递,单个工作流可能会膨胀到 150K token。其中大部分数据模型根本不需要。 解决方法是转换模型的职责。模型不再通过上下文直接调用工具,而是编写通过运行时调用工具的代码。工具存在于运行时中,模型只看到它导入的内容。 在 Anthropic 的例子中,Google Drive 的转录文本流入 Salesforce CRM 进行更新。旧的方法需要加载两个工具的模式,并将整个转录文本通过模型传递两次。而新方法仅需十行 TypeScript 代码,导入所需的内容即可。同样的任务,仅需 2K token。降幅高达 98.7%。 Cloudflare 将这一理念推向了极致。他们通过仅暴露两个函数(search 和 execute),将其包含 2,500 个端点的整个 API 从 1.17M token 的模式数据压缩到了 1K token。代理编写代码在目录中搜索,然后仅执行匹配的内容。 这种新模式有一个名字:代码模式(Code Mode)。它是一个运行时环境,代理在其中编写代码,混合使用两种基本原语: - Bash:用于任何已安装二进制文件的工具,如 git 或 curl。 - 类型化模块导入:用于专有 API,类型签名仅在代理实际导入工具时加载。 第二部分是关键所在。类型随导入一起传输,因此代理能获得所选择工具的严格契约,而为跳过的工具支付零成本。MCP 的类型化契约加上 CLI 的懒加载机制,融合在一个运行时中。代理可根据任务自行选择。 “MCP 已死”是一个错误的结论。Anthropic 刚刚报告 MCP SDK 的下载量达到 3 亿次,而年初仅为 1 亿次。该协议并没有消亡,它目前正是增长最快的代理基础设施组件。 真正消亡的是一次性加载所有工具的做法。这从一开始就是一个糟糕的主意。 如果你在 2026 年构建代理,规则很简单。工具定义属于代码,而不属于上下文。模型编写几行代码来调用它们,剩下的工作由运行时完成。这才是这场争论真正关乎的内容。
查看原文

相似文章

@akshay_pachaar: https://x.com/akshay_pachaar/status/2053166970166772052

X AI KOLs Timeline

The article discusses a shift in AI agent tool usage from the 'MCP vs CLI' debate to 'Code Mode,' where agents write code to dynamically import tools, significantly reducing context window usage. It highlights Anthropic's approach and Cloudflare's implementation, demonstrating a 98.7% reduction in token consumption for specific tasks.

使用 MCP 进行代码执行:构建更高效的智能体

Anthropic Engineering

本文来自 Anthropic,探讨了如何将代码执行与 Model Context Protocol (MCP) 相结合,以提升 AI 智能体的效率。文章分析了工具定义和中间结果导致的 token 过载等挑战,并提出代码执行作为降低延迟和成本的解决方案。