@_avichawla: 更聪明的 Claude 模型消耗的 tokens 更多,而不是更少!而且这不是 3-5% 的微小差异,而是高出 54% 的 token 使用量。…
摘要
本文分析了为何像 Claude 这样更智能的 AI Agent 在与 Supabase 等以人类为中心的后端交互时会消耗更多 Token,主要原因在于上下文发现效率低下。文章引入了 InsForge,这是一款专为 Agent 设计的开源后端工具,通过提供结构化的上下文来显著降低 Token 用量和人工干预。
查看缓存全文
缓存时间: 2026/05/10 04:24
专为代理式编程打造的一站式开源后端平台。
⭐ 帮助我们触达更多开发者,壮大 InsForge 社区。请为这个仓库点个 Star!
⭐ 在 GitHub 上给我们点个 Star,以便及时获取新版本发布通知!
相似文章
@_avichawla:只改了一处,Claude Code 的 token 消耗降到原来的 1/3:- 之前:1040 万 token · 10 个错误 · 9.21 美元 - 之后:370 万 token · 0 个错误 · 2.81 美元
用户把后端上下文层换成 Insforge Skills + CLI 后,Claude Code 的 token 用量减少 64%,错误归零,成本从 9.21 美元降到 2.81 美元。
Claude Token Counter,现已支持模型对比
Simon Willison 升级了他的 Claude Token Counter 工具,增加了对不同 Claude 模型之间的 token 数量对比功能。升级后的工具发现,Claude Opus 4.7 采用的新分词器相比 Opus 4.6 对相同文本需要多 1.46 倍的 token,这导致成本增加约 40%,尽管两个模型定价相同。
@akshay_pachaar: https://x.com/akshay_pachaar/status/2053166970166772052
The article discusses a shift in AI agent tool usage from the 'MCP vs CLI' debate to 'Code Mode,' where agents write code to dynamically import tools, significantly reducing context window usage. It highlights Anthropic's approach and Cloudflare's implementation, demonstrating a 98.7% reduction in token consumption for specific tasks.
@akshay_pachaar: https://x.com/akshay_pachaar/status/2045910818450182526
一份实用指南,介绍 Claude Opus 4.7 与 4.6 的区别,涵盖新的 xhigh 努力等级、以自适应思考取代固定 token 预算,以及 1M 上下文窗口,并就如何调整提示策略和任务分配方式提供建议,以避免 token 成本虚高。
@tom_doerr: 将 Claude Code 和 Cursor 的 token 成本降低 60-95% https://github.com/yvgude/lean-ctx
lean-ctx 是一个基于 Rust 的开源上下文运行时,通过文件读取压缩和 Shell 输出优化,将 Claude Code、Cursor、Copilot 等 AI 编程助手的 token 成本降低 60–95%。它以 Shell Hook 和 MCP Server 的形式运行,提供 56 个工具及多种读取模式。