一样的上下文, Claude占用Token是其他模型的1.5倍
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
以前在OpenCode中使用Claude和GPT的时候就发现.
同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.
现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.
好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.
image546×225 9.32 KB
image119×110 1.48 KB
(图片只是说一下我看的位置, 无视数字, 并不是复现过程)
--【壹】--:
可能是分词器tokenrizer不一样吧,我猜的,闭源模型也没法知道了
问题描述:
--【壹】--:
以前在OpenCode中使用Claude和GPT的时候就发现.
同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.
现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.
好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.
image546×225 9.32 KB
image119×110 1.48 KB
(图片只是说一下我看的位置, 无视数字, 并不是复现过程)
--【壹】--:
可能是分词器tokenrizer不一样吧,我猜的,闭源模型也没法知道了

