关于4.26 晚上 ds降价到0.025百万token 一块钱可以用多少?

2026-04-29 09:005阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

数据或许不太准确,昨天在降价前还用了一小会… 大约一百多万 token
缓存命中率非常高,需要注意我不是使用它写代码,而是写中文书稿,使用的 claude code
理想情况 1 块钱应该可以用到 六七百万 token 这种缓存命中得非常高
但是测试下来,有点不是很理想,目前还没破五百万 token。过程中发现前面几次调用消耗非常大,一百万 token 用了五六毛钱,后面几乎都是缓存。
4.26 日 图片:
image1076×1614 56.5 KB
4.27 日 图片:
image1022×1476 58.9 KB

按照这个价格计算,平均的单字token费用:0.00000024 和 0.00000022
这么一算,挺便宜了。但好像还是不如包月 适合需求量少,但是余额不过期,跨月使用的佬友

网友解答:
--【壹】--:

写代码不如5.4

其他的中文场景我觉得比5.4强,比如大型项目里的需求、设计、架构之类的文档工作


--【贰】--:

应该是这样的,我没了解过具体论文,看视频学习过大概意思应该就是通过KV Cache来获取之前回答过的Token


--【叁】--:

对,一开始用的比较多,刚刚我又用了一下,一百一十万token,用了4毛钱。所以数据只能作为参考,但是昨天缓存确实香。
昨天400万token,未命中缓存16万,今天200万token未命中缓存就有14万


--【肆】--:

请问命中缓存是什么呢?这个命中两个字不太明白,总是看别人在说


--【伍】--:

简单来说就是你问过的一次问题,后续又问了一个很类似的问题,这个类似这个概念比较模糊,对于计算机来说差不多就是在坐标系上的向量比较相近吧,所以实际上这个概念很模糊,反正你就理解为问了差不多的问题。


--【陆】--:

还没试过用cc然后使用ds的模型,请问这个适配性如何?之前听说ds适配agent的能力一般般。


--【柒】--:

佬,之前看过transformer的论文,它大概的意思是一次只能吐出一个token,然后之后如果还需要吐token就需要把吐出的token连同输入在放回向量中继续计下一个token;这里的缓存是不是上一次的计算结果?


--【捌】--:

之前看到消息说下半年算力起来了还会大幅降价,真的很期待啊


--【玖】--:

我更关心ds用起来怎么样,相比GPT5.4如何


--【拾】--:

看前端用什么工具吧,我用龙虾试了下 flash 模型,就发了俩字“测试”,花了一毛五

3c1fd64cfbc27237318d5d5544f59a10755×352 8.22 KB


--【拾壹】--:

真coding花费还是不低,codingplan性价比还是高的(火山除外)


--【拾贰】--:

据说cc并发很大,我第一天的时候用的cc,问了两个问题花了1.2rmb,不过目前好很多了,并发大也代表速度快嘛。ds这一代说是提升了agent的适配,我倒是只写过代码,感觉良好。


--【拾叁】--:

大概可以理解为,每一次query都需要计算入参,把入参转化成大模型可以理解的数据,这个计算过程会耗费算力,但是把一些计算结果缓存起来,下一次就能减少算力


--【拾肆】--:

中文书稿是什么? 自己写小说吗? 降价的ds确实爽


--【拾伍】--:

我嘞个豆,这缓存这么离谱吗?简直高的吓人


--【拾陆】--:

对话场景非常合适

缓存是默认的自动创建的,而且可以缓存几个小时

标签:人工智能
问题描述:

数据或许不太准确,昨天在降价前还用了一小会… 大约一百多万 token
缓存命中率非常高,需要注意我不是使用它写代码,而是写中文书稿,使用的 claude code
理想情况 1 块钱应该可以用到 六七百万 token 这种缓存命中得非常高
但是测试下来,有点不是很理想,目前还没破五百万 token。过程中发现前面几次调用消耗非常大,一百万 token 用了五六毛钱,后面几乎都是缓存。
4.26 日 图片:
image1076×1614 56.5 KB
4.27 日 图片:
image1022×1476 58.9 KB

按照这个价格计算,平均的单字token费用:0.00000024 和 0.00000022
这么一算,挺便宜了。但好像还是不如包月 适合需求量少,但是余额不过期,跨月使用的佬友

网友解答:
--【壹】--:

写代码不如5.4

其他的中文场景我觉得比5.4强,比如大型项目里的需求、设计、架构之类的文档工作


--【贰】--:

应该是这样的,我没了解过具体论文,看视频学习过大概意思应该就是通过KV Cache来获取之前回答过的Token


--【叁】--:

对,一开始用的比较多,刚刚我又用了一下,一百一十万token,用了4毛钱。所以数据只能作为参考,但是昨天缓存确实香。
昨天400万token,未命中缓存16万,今天200万token未命中缓存就有14万


--【肆】--:

请问命中缓存是什么呢?这个命中两个字不太明白,总是看别人在说


--【伍】--:

简单来说就是你问过的一次问题,后续又问了一个很类似的问题,这个类似这个概念比较模糊,对于计算机来说差不多就是在坐标系上的向量比较相近吧,所以实际上这个概念很模糊,反正你就理解为问了差不多的问题。


--【陆】--:

还没试过用cc然后使用ds的模型,请问这个适配性如何?之前听说ds适配agent的能力一般般。


--【柒】--:

佬,之前看过transformer的论文,它大概的意思是一次只能吐出一个token,然后之后如果还需要吐token就需要把吐出的token连同输入在放回向量中继续计下一个token;这里的缓存是不是上一次的计算结果?


--【捌】--:

之前看到消息说下半年算力起来了还会大幅降价,真的很期待啊


--【玖】--:

我更关心ds用起来怎么样,相比GPT5.4如何


--【拾】--:

看前端用什么工具吧,我用龙虾试了下 flash 模型,就发了俩字“测试”,花了一毛五

3c1fd64cfbc27237318d5d5544f59a10755×352 8.22 KB


--【拾壹】--:

真coding花费还是不低,codingplan性价比还是高的(火山除外)


--【拾贰】--:

据说cc并发很大,我第一天的时候用的cc,问了两个问题花了1.2rmb,不过目前好很多了,并发大也代表速度快嘛。ds这一代说是提升了agent的适配,我倒是只写过代码,感觉良好。


--【拾叁】--:

大概可以理解为,每一次query都需要计算入参,把入参转化成大模型可以理解的数据,这个计算过程会耗费算力,但是把一些计算结果缓存起来,下一次就能减少算力


--【拾肆】--:

中文书稿是什么? 自己写小说吗? 降价的ds确实爽


--【拾伍】--:

我嘞个豆,这缓存这么离谱吗?简直高的吓人


--【拾陆】--:

对话场景非常合适

缓存是默认的自动创建的,而且可以缓存几个小时

标签:人工智能