@runes_leo: 完全击中。 今天又算了一次:Claude 启动加载 30-40K tokens(rules/ 4 个文件 + MEMORY.md), 是 Codex 的 5-8 倍、Hermes 的 15 倍。 规则塞得越多越漂移,单 session 违…

X AI KOLs Timeline 新闻

摘要

Developer reports that Claude loads 30-40K tokens of rules on startup—5-8× Codex, 15× Hermes—and shows increasing rule drift, violating the same P0 rule five times in one session.

完全击中。 今天又算了一次:Claude 启动加载 30-40K tokens(rules/ 4 个文件 + MEMORY.md), 是 Codex 的 5-8 倍、Hermes 的 15 倍。 规则塞得越多越漂移,单 session 违反同一条 P0 铁律 5 次。 #4 progressive disclosure 这条最戳。 按这思路把 rules/ 拆 Layer 1/2/3: - L1 P0 元规则常驻 -
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 16:24

完全击中。 今天又算了一次:Claude 启动加载 30-40K tokens(rules/ 4 个文件 + MEMORY.md), 是 Codex 的 5-8 倍、Hermes 的 15 倍。 规则塞得越多越漂移,单 session 违反同一条 P0 铁律 5 次。 #4 progressive disclosure 这条最戳。 按这思路把 rules/ 拆 Layer 1/2/3: - L1 P0 元规则常驻 -

相似文章

Claude Token Counter,现已支持模型对比

Simon Willison's Blog

Simon Willison 升级了他的 Claude Token Counter 工具,增加了对不同 Claude 模型之间的 token 数量对比功能。升级后的工具发现,Claude Opus 4.7 采用的新分词器相比 Opus 4.6 对相同文本需要多 1.46 倍的 token,这导致成本增加约 40%,尽管两个模型定价相同。

@_avichawla: 更聪明的 Claude 模型消耗的 tokens 更多,而不是更少!而且这不是 3-5% 的微小差异,而是高出 54% 的 token 使用量。…

X AI KOLs Following

本文分析了为何像 Claude 这样更智能的 AI Agent 在与 Supabase 等以人类为中心的后端交互时会消耗更多 Token,主要原因在于上下文发现效率低下。文章引入了 InsForge,这是一款专为 Agent 设计的开源后端工具,通过提供结构化的上下文来显著降低 Token 用量和人工干预。