@runes_leo: 完全击中。 今天又算了一次:Claude 启动加载 30-40K tokens(rules/ 4 个文件 + MEMORY.md), 是 Codex 的 5-8 倍、Hermes 的 15 倍。 规则塞得越多越漂移,单 session 违…
摘要
Developer reports that Claude loads 30-40K tokens of rules on startup—5-8× Codex, 15× Hermes—and shows increasing rule drift, violating the same P0 rule five times in one session.
查看缓存全文
缓存时间: 2026/04/21 16:24
完全击中。 今天又算了一次:Claude 启动加载 30-40K tokens(rules/ 4 个文件 + MEMORY.md), 是 Codex 的 5-8 倍、Hermes 的 15 倍。 规则塞得越多越漂移,单 session 违反同一条 P0 铁律 5 次。 #4 progressive disclosure 这条最戳。 按这思路把 rules/ 拆 Layer 1/2/3: - L1 P0 元规则常驻 -
相似文章
Claude Token Counter,现已支持模型对比
Simon Willison 升级了他的 Claude Token Counter 工具,增加了对不同 Claude 模型之间的 token 数量对比功能。升级后的工具发现,Claude Opus 4.7 采用的新分词器相比 Opus 4.6 对相同文本需要多 1.46 倍的 token,这导致成本增加约 40%,尽管两个模型定价相同。
@_avichawla: 更聪明的 Claude 模型消耗的 tokens 更多,而不是更少!而且这不是 3-5% 的微小差异,而是高出 54% 的 token 使用量。…
本文分析了为何像 Claude 这样更智能的 AI Agent 在与 Supabase 等以人类为中心的后端交互时会消耗更多 Token,主要原因在于上下文发现效率低下。文章引入了 InsForge,这是一款专为 Agent 设计的开源后端工具,通过提供结构化的上下文来显著降低 Token 用量和人工干预。
@_avichawla:只改了一处,Claude Code 的 token 消耗降到原来的 1/3:- 之前:1040 万 token · 10 个错误 · 9.21 美元 - 之后:370 万 token · 0 个错误 · 2.81 美元
用户把后端上下文层换成 Insforge Skills + CLI 后,Claude Code 的 token 用量减少 64%,错误归零,成本从 9.21 美元降到 2.81 美元。
@CuiMao: 你别说,你真别说,本地跑LM studio接一个Claude code,效果相当满意,5090开64k上下文,能跑200+token。
用户分享在本地使用LM Studio配合Claude Code的运行体验,称使用RTX 5090可实现64k上下文并达到每秒200+ token的生成速度,效果令人满意。
@tom_doerr: 将 Claude Code 和 Cursor 的 token 成本降低 60-95% https://github.com/yvgude/lean-ctx
lean-ctx 是一个基于 Rust 的开源上下文运行时,通过文件读取压缩和 Shell 输出优化,将 Claude Code、Cursor、Copilot 等 AI 编程助手的 token 成本降低 60–95%。它以 Shell Hook 和 MCP Server 的形式运行,提供 56 个工具及多种读取模式。