首页
/
工具
/
Claude Token Counter,现已支持模型对比
Claude Token Counter,现已支持模型对比
摘要
Simon Willison 升级了他的 Claude Token Counter 工具,增加了对不同 Claude 模型之间的 token 数量对比功能。升级后的工具发现,Claude Opus 4.7 采用的新分词器相比 Opus 4.6 对相同文本需要多 1.46 倍的 token,这导致成本增加约 40%,尽管两个模型定价相同。
暂无内容
查看缓存全文
缓存时间:
2026/04/20 08:26
# Claude Token Counter,现已支持模型对比
来源:https://simonwillison.net/2026/Apr/20/claude-token-counts/
2026年4月20日 - 链接博客
**Claude Token Counter,现已支持模型对比 (https://tools.simonwillison.net/claude-token-counter)**。我升级了我的 Claude Token Counter 工具,增加了针对不同模型运行相同计数的功能,以便进行对比。
据我所知,Claude Opus 4.7 是首个改变分词器的模型,因此只值得在 4.7 和 4.6 之间进行对比。Claude 分词计数 API (https://platform.claude.com/docs/en/build-with-claude/token-counting) 接受任何 Claude 模型 ID,所以我包含了四个主要当前模型的选项(Opus 4.7 和 4.6、Sonnet 4.6 和 Haiku 4.5)。
在 Opus 4.7 的发布公告中,Anthropic 表示 (https://www.anthropic.com/news/claude-opus-4-7#migrating-from-opus-46-to-opus-47):
> Opus 4.7 使用更新的分词器,改进了模型处理文本的方式。代价是相同的输入可能映射到更多令牌——大致为 1.0–1.35 倍,具体取决于内容类型。
我将 Opus 4.7 的系统提示词 (https://github.com/simonw/research/blob/2cf912666ba08ef0c00a1b51ee07c9a8e64579ef/extract-system-prompts/claude-opus-4-7.md?plain=1) 粘贴到分词计数工具中,发现 Opus 4.7 分词器使用的令牌数是 Opus 4.6 的 1.46 倍。
令牌对比工具的截图。要对比的模型:claude-opus-4-7(已选),claude-opus-4-6(已选),claude-opus-4-5,claude-sonnet-4-6,claude-haiku-4-5。注:"这些模型共享同一分词器"。蓝色"计数令牌"按钮。结果表 — 模型 | 令牌 | 相对于最低值。claude-opus-4-7:7,335 个令牌,1.46 倍(黄色徽章)。claude-opus-4-6:5,039 个令牌,1.00 倍(绿色徽章)。
Opus 4.7 的价格与 Opus 4.6 相同 - 每百万输入令牌 5 美元,每百万输出令牌 25 美元 - 但这种令牌膨胀意味着我们可以预期成本会增加约 40%。
分词计数工具也接受图像。Opus 4.7 具有改进的图像支持,描述如下:
> Opus 4.7 对高分辨率图像的视觉能力更强:它可以接受长边达 2,576 像素(约 370 万像素)的图像,是之前 Claude 模型的三倍多。
我尝试计算一个 3456x2234 像素的 3.7MB PNG 截图的令牌数,得到了更大的令牌计数增长 - 4.7 相比 4.6 的令牌数增加了 3.01 倍:
同一 UI,这次上传了一个截图 PNG 图像。claude-opus-4-7:4,744 个令牌,3.01 倍(黄色徽章)。claude-opus-4-6:1,578 个令牌,1.00 倍(绿色徽章)。
**更新**:图像的 3 倍增长*完全*是由于 Opus 4.7 能够处理更高分辨率。我用一张 682x318 像素的图像重新尝试,Opus 4.7 用了 314 个令牌,而 4.6 用了 310 个 - 成本基本相同。
**更新 2**:我尝试了一个 15MB、30 页的文本密集型 PDF,Opus 4.7 报告 60,934 个令牌,而 4.6 报告 56,482 个 - 这是 1.08 倍的倍数,显著低于我对原始文本获得的倍数。
相似文章
X AI KOLs Following
本文分析了为何像 Claude 这样更智能的 AI Agent 在与 Supabase 等以人类为中心的后端交互时会消耗更多 Token,主要原因在于上下文发现效率低下。文章引入了 InsForge,这是一款专为 Agent 设计的开源后端工具,通过提供结构化的上下文来显著降低 Token 用量和人工干预。
X AI KOLs Timeline
用户把后端上下文层换成 Insforge Skills + CLI 后,Claude Code 的 token 用量减少 64%,错误归零,成本从 9.21 美元降到 2.81 美元。
X AI KOLs Following
一份实用指南,介绍 Claude Opus 4.7 与 4.6 的区别,涵盖新的 xhigh 努力等级、以自适应思考取代固定 token 预算,以及 1M 上下文窗口,并就如何调整提示策略和任务分配方式提供建议,以避免 token 成本虚高。
Reddit r/artificial
尽管 OpenAI 声称 GPT-5.5 在 token 效率上有所提升,但实际使用成本仍比 GPT-5.4 高出 49% 至 92%;与此同时,Anthropic 的 Claude Opus 4.7 对于较长提示词的实际成本也上涨了 12% 至 27%。这一现象反映出前沿模型价格普遍上涨的趋势,而两家公司均面临巨额预计亏损。
X AI KOLs Timeline
Developer reports that Claude loads 30-40K tokens of rules on startup—5-8× Codex, 15× Hermes—and shows increasing rule drift, violating the same P0 rule five times in one session.