GLM套餐消耗异常 ,8次prompt消耗62%,大家帮我看看哪里有问题
- 内容介绍
- 相关推荐
我是lite套餐,第一次正式使用GLM-5.1, 时间凌晨01:15 到 04:46,上述时间我再VSCode中的claude code中进行了8次交互,但5小时额度消耗达到62%??? 我查看了后台,实际 API 请求数207 次,我在普通时段使用的,并非高峰期,请问这62%的额度消耗,按80prompt计算的话就是50次prompt???这是怎么消耗的????我向官方发出了求助,目前没有回复,各位道友,有知道的么,给个解释。
image1538×780 139 KB
image775×502 64.8 KB
网友解答:--【壹】--:
Github Copilot按次数调用收费。
codex最低20美金套餐,你拿这个费用和lite套餐比吗?
--【贰】--:
旧版本啊,你拉一下账单算一下Token总额对比一下就知道了
在另一个话题中lite是5小时4千万token
pro是lite5倍,2亿
max是pro的4倍,8亿
可能有70%的误差啥的,好像缩水了
--【叁】--:
lite 是这样的。就是量很小的。
--【肆】--:
lite用的很快的,PRO套餐勉强5小时够用
--【伍】--:
我用gpt帮我看了下账单:
- 输入:463,316 tokens
- 输出:105,358 tokens
- 缓存命中:20,370,368 tokens
也就是 97.3% 都是缓存命中 token。
我没明白的是,1次Prompt到底是怎么计算的?
--【陆】--:
这个可能不准确,你要拉出你那个5小时的窗口全部的Token消耗(输入+输出+缓存创建+缓存读取),然后按照百分比计算出你这个窗口是多少个Token,比一下之前反馈的数据
--【柒】--:
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 有没有可能是这个环境变量没设置,多跑了一些请求
--【捌】--:
按我使用的强度来说,一个套餐也就够12次prompt????这也太拉了吧
--【玖】--: 怀念拿破仑:
用gpt帮我看了下账单:
- 输入:463,316 tokens
- 输出:105,358 tokens
- 缓存命中:20,370,368 tokens
帮你算了下,直接API价格大概35元的费用 如果你买的lite是最便宜那一档,这个比例就没啥问题。
prompt不是无限用token的,我整一个一百万行代码的项目,一句让AI全部读取一次,也只算一次?肯定还是算token比较标准的,缓存读也要钱,一般是十分之一
--【拾】--:
200多次API调用,2000多万token,这正常么
image1672×578 29.2 KB
--【拾壹】--:
lite么,那正常,你一次交互它调用工具好几轮的话,可不是按一次算的
--【拾贰】--:
但是我用codex和GitHub Copilot就不存在这种情况,一次对话都半个小时,也从来没有出现过几次对话消耗这么多的情况。有没有人做过对比???
--【拾叁】--:
你的项目大 读取输入多,就正常
--【拾肆】--:
glm的lite现在就是用量极少+可能存在用量计算bug。
--【拾伍】--:
5小时就是50M左右的token吧
我是lite套餐,第一次正式使用GLM-5.1, 时间凌晨01:15 到 04:46,上述时间我再VSCode中的claude code中进行了8次交互,但5小时额度消耗达到62%??? 我查看了后台,实际 API 请求数207 次,我在普通时段使用的,并非高峰期,请问这62%的额度消耗,按80prompt计算的话就是50次prompt???这是怎么消耗的????我向官方发出了求助,目前没有回复,各位道友,有知道的么,给个解释。
image1538×780 139 KB
image775×502 64.8 KB
网友解答:--【壹】--:
Github Copilot按次数调用收费。
codex最低20美金套餐,你拿这个费用和lite套餐比吗?
--【贰】--:
旧版本啊,你拉一下账单算一下Token总额对比一下就知道了
在另一个话题中lite是5小时4千万token
pro是lite5倍,2亿
max是pro的4倍,8亿
可能有70%的误差啥的,好像缩水了
--【叁】--:
lite 是这样的。就是量很小的。
--【肆】--:
lite用的很快的,PRO套餐勉强5小时够用
--【伍】--:
我用gpt帮我看了下账单:
- 输入:463,316 tokens
- 输出:105,358 tokens
- 缓存命中:20,370,368 tokens
也就是 97.3% 都是缓存命中 token。
我没明白的是,1次Prompt到底是怎么计算的?
--【陆】--:
这个可能不准确,你要拉出你那个5小时的窗口全部的Token消耗(输入+输出+缓存创建+缓存读取),然后按照百分比计算出你这个窗口是多少个Token,比一下之前反馈的数据
--【柒】--:
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 有没有可能是这个环境变量没设置,多跑了一些请求
--【捌】--:
按我使用的强度来说,一个套餐也就够12次prompt????这也太拉了吧
--【玖】--: 怀念拿破仑:
用gpt帮我看了下账单:
- 输入:463,316 tokens
- 输出:105,358 tokens
- 缓存命中:20,370,368 tokens
帮你算了下,直接API价格大概35元的费用 如果你买的lite是最便宜那一档,这个比例就没啥问题。
prompt不是无限用token的,我整一个一百万行代码的项目,一句让AI全部读取一次,也只算一次?肯定还是算token比较标准的,缓存读也要钱,一般是十分之一
--【拾】--:
200多次API调用,2000多万token,这正常么
image1672×578 29.2 KB
--【拾壹】--:
lite么,那正常,你一次交互它调用工具好几轮的话,可不是按一次算的
--【拾贰】--:
但是我用codex和GitHub Copilot就不存在这种情况,一次对话都半个小时,也从来没有出现过几次对话消耗这么多的情况。有没有人做过对比???
--【拾叁】--:
你的项目大 读取输入多,就正常
--【拾肆】--:
glm的lite现在就是用量极少+可能存在用量计算bug。
--【拾伍】--:
5小时就是50M左右的token吧

