GLM套餐消耗异常 ,8次prompt消耗62%,大家帮我看看哪里有问题

2026-04-11 14:142阅读0评论SEO资讯
  • 内容介绍
  • 相关推荐
问题描述:

我是lite套餐,第一次正式使用GLM-5.1, 时间凌晨01:15 到 04:46,上述时间我再VSCode中的claude code中进行了8次交互,但5小时额度消耗达到62%??? 我查看了后台,实际 API 请求数207 次,我在普通时段使用的,并非高峰期,请问这62%的额度消耗,按80prompt计算的话就是50次prompt???这是怎么消耗的????我向官方发出了求助,目前没有回复,各位道友,有知道的么,给个解释。
image1538×780 139 KB

image775×502 64.8 KB

网友解答:
--【壹】--:

Github Copilot按次数调用收费。
codex最低20美金套餐,你拿这个费用和lite套餐比吗?


--【贰】--:

旧版本啊,你拉一下账单算一下Token总额对比一下就知道了

在另一个话题中

lite是5小时4千万token
pro是lite5倍,2亿
max是pro的4倍,8亿

可能有70%的误差啥的,好像缩水了


--【叁】--:

lite 是这样的。就是量很小的。


--【肆】--:

lite用的很快的,PRO套餐勉强5小时够用


--【伍】--:

我用gpt帮我看了下账单:

  • 输入:463,316 tokens
  • 输出:105,358 tokens
  • 缓存命中:20,370,368 tokens

也就是 97.3% 都是缓存命中 token

我没明白的是,1次Prompt到底是怎么计算的?


--【陆】--:

这个可能不准确,你要拉出你那个5小时的窗口全部的Token消耗(输入+输出+缓存创建+缓存读取),然后按照百分比计算出你这个窗口是多少个Token,比一下之前反馈的数据


--【柒】--:

CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 有没有可能是这个环境变量没设置,多跑了一些请求


--【捌】--:

按我使用的强度来说,一个套餐也就够12次prompt????这也太拉了吧


--【玖】--: 怀念拿破仑:

用gpt帮我看了下账单:

  • 输入:463,316 tokens
  • 输出:105,358 tokens
  • 缓存命中:20,370,368 tokens

帮你算了下,直接API价格大概35元的费用 如果你买的lite是最便宜那一档,这个比例就没啥问题。

prompt不是无限用token的,我整一个一百万行代码的项目,一句让AI全部读取一次,也只算一次?肯定还是算token比较标准的,缓存读也要钱,一般是十分之一


--【拾】--:

200多次API调用,2000多万token,这正常么
image1672×578 29.2 KB


--【拾壹】--:

lite么,那正常,你一次交互它调用工具好几轮的话,可不是按一次算的


--【拾贰】--:

但是我用codex和GitHub Copilot就不存在这种情况,一次对话都半个小时,也从来没有出现过几次对话消耗这么多的情况。有没有人做过对比???


--【拾叁】--:

你的项目大 读取输入多,就正常


--【拾肆】--:

glm的lite现在就是用量极少+可能存在用量计算bug。


--【拾伍】--:

5小时就是50M左右的token吧

问题描述:

我是lite套餐,第一次正式使用GLM-5.1, 时间凌晨01:15 到 04:46,上述时间我再VSCode中的claude code中进行了8次交互,但5小时额度消耗达到62%??? 我查看了后台,实际 API 请求数207 次,我在普通时段使用的,并非高峰期,请问这62%的额度消耗,按80prompt计算的话就是50次prompt???这是怎么消耗的????我向官方发出了求助,目前没有回复,各位道友,有知道的么,给个解释。
image1538×780 139 KB

image775×502 64.8 KB

网友解答:
--【壹】--:

Github Copilot按次数调用收费。
codex最低20美金套餐,你拿这个费用和lite套餐比吗?


--【贰】--:

旧版本啊,你拉一下账单算一下Token总额对比一下就知道了

在另一个话题中

lite是5小时4千万token
pro是lite5倍,2亿
max是pro的4倍,8亿

可能有70%的误差啥的,好像缩水了


--【叁】--:

lite 是这样的。就是量很小的。


--【肆】--:

lite用的很快的,PRO套餐勉强5小时够用


--【伍】--:

我用gpt帮我看了下账单:

  • 输入:463,316 tokens
  • 输出:105,358 tokens
  • 缓存命中:20,370,368 tokens

也就是 97.3% 都是缓存命中 token

我没明白的是,1次Prompt到底是怎么计算的?


--【陆】--:

这个可能不准确,你要拉出你那个5小时的窗口全部的Token消耗(输入+输出+缓存创建+缓存读取),然后按照百分比计算出你这个窗口是多少个Token,比一下之前反馈的数据


--【柒】--:

CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 有没有可能是这个环境变量没设置,多跑了一些请求


--【捌】--:

按我使用的强度来说,一个套餐也就够12次prompt????这也太拉了吧


--【玖】--: 怀念拿破仑:

用gpt帮我看了下账单:

  • 输入:463,316 tokens
  • 输出:105,358 tokens
  • 缓存命中:20,370,368 tokens

帮你算了下,直接API价格大概35元的费用 如果你买的lite是最便宜那一档,这个比例就没啥问题。

prompt不是无限用token的,我整一个一百万行代码的项目,一句让AI全部读取一次,也只算一次?肯定还是算token比较标准的,缓存读也要钱,一般是十分之一


--【拾】--:

200多次API调用,2000多万token,这正常么
image1672×578 29.2 KB


--【拾壹】--:

lite么,那正常,你一次交互它调用工具好几轮的话,可不是按一次算的


--【拾贰】--:

但是我用codex和GitHub Copilot就不存在这种情况,一次对话都半个小时,也从来没有出现过几次对话消耗这么多的情况。有没有人做过对比???


--【拾叁】--:

你的项目大 读取输入多,就正常


--【拾肆】--:

glm的lite现在就是用量极少+可能存在用量计算bug。


--【拾伍】--:

5小时就是50M左右的token吧