一样的上下文, Claude占用Token是其他模型的1.5倍

2026-04-29 10:131阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

以前在OpenCode中使用Claude和GPT的时候就发现.

同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.


现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.

好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.


image546×225 9.32 KB
image119×110 1.48 KB
(图片只是说一下我看的位置, 无视数字, 并不是复现过程)

网友解答:
--【壹】--:

可能是分词器tokenrizer不一样吧,我猜的,闭源模型也没法知道了

标签:人工智能
问题描述:

以前在OpenCode中使用Claude和GPT的时候就发现.

同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.


现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.

好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.


image546×225 9.32 KB
image119×110 1.48 KB
(图片只是说一下我看的位置, 无视数字, 并不是复现过程)

网友解答:
--【壹】--:

可能是分词器tokenrizer不一样吧,我猜的,闭源模型也没法知道了

标签:人工智能