关于4.26 晚上 ds降价到0.025百万token 一块钱可以用多少?
- 内容介绍
- 文章标签
- 相关推荐
数据或许不太准确,昨天在降价前还用了一小会… 大约一百多万 token
缓存命中率非常高,需要注意我不是使用它写代码,而是写中文书稿,使用的 claude code
理想情况 1 块钱应该可以用到 六七百万 token 这种缓存命中得非常高
但是测试下来,有点不是很理想,目前还没破五百万 token。过程中发现前面几次调用消耗非常大,一百万 token 用了五六毛钱,后面几乎都是缓存。
4.26 日 图片:
image1076×1614 56.5 KB
4.27 日 图片:
image1022×1476 58.9 KB
按照这个价格计算,平均的单字token费用:0.00000024 和 0.00000022
这么一算,挺便宜了。但好像还是不如包月 适合需求量少,但是余额不过期,跨月使用的佬友
--【壹】--:
写代码不如5.4
其他的中文场景我觉得比5.4强,比如大型项目里的需求、设计、架构之类的文档工作
--【贰】--:
应该是这样的,我没了解过具体论文,看视频学习过大概意思应该就是通过KV Cache来获取之前回答过的Token
--【叁】--:
对,一开始用的比较多,刚刚我又用了一下,一百一十万token,用了4毛钱。所以数据只能作为参考,但是昨天缓存确实香。
昨天400万token,未命中缓存16万,今天200万token未命中缓存就有14万
--【肆】--:
请问命中缓存是什么呢?这个命中两个字不太明白,总是看别人在说
--【伍】--:
简单来说就是你问过的一次问题,后续又问了一个很类似的问题,这个类似这个概念比较模糊,对于计算机来说差不多就是在坐标系上的向量比较相近吧,所以实际上这个概念很模糊,反正你就理解为问了差不多的问题。
--【陆】--:
还没试过用cc然后使用ds的模型,请问这个适配性如何?之前听说ds适配agent的能力一般般。
--【柒】--:
佬,之前看过transformer的论文,它大概的意思是一次只能吐出一个token,然后之后如果还需要吐token就需要把吐出的token连同输入在放回向量中继续计下一个token;这里的缓存是不是上一次的计算结果?
--【捌】--:
之前看到消息说下半年算力起来了还会大幅降价,真的很期待啊
--【玖】--:
我更关心ds用起来怎么样,相比GPT5.4如何
--【拾】--:
看前端用什么工具吧,我用龙虾试了下 flash 模型,就发了俩字“测试”,花了一毛五
3c1fd64cfbc27237318d5d5544f59a10755×352 8.22 KB
--【拾壹】--:
真coding花费还是不低,codingplan性价比还是高的(火山除外)
--【拾贰】--:
据说cc并发很大,我第一天的时候用的cc,问了两个问题花了1.2rmb,不过目前好很多了,并发大也代表速度快嘛。ds这一代说是提升了agent的适配,我倒是只写过代码,感觉良好。
--【拾叁】--:
大概可以理解为,每一次query都需要计算入参,把入参转化成大模型可以理解的数据,这个计算过程会耗费算力,但是把一些计算结果缓存起来,下一次就能减少算力
--【拾肆】--:
中文书稿是什么? 自己写小说吗? 降价的ds确实爽
--【拾伍】--:
我嘞个豆,这缓存这么离谱吗?简直高的吓人
--【拾陆】--:
对话场景非常合适
缓存是默认的自动创建的,而且可以缓存几个小时
数据或许不太准确,昨天在降价前还用了一小会… 大约一百多万 token
缓存命中率非常高,需要注意我不是使用它写代码,而是写中文书稿,使用的 claude code
理想情况 1 块钱应该可以用到 六七百万 token 这种缓存命中得非常高
但是测试下来,有点不是很理想,目前还没破五百万 token。过程中发现前面几次调用消耗非常大,一百万 token 用了五六毛钱,后面几乎都是缓存。
4.26 日 图片:
image1076×1614 56.5 KB
4.27 日 图片:
image1022×1476 58.9 KB
按照这个价格计算,平均的单字token费用:0.00000024 和 0.00000022
这么一算,挺便宜了。但好像还是不如包月 适合需求量少,但是余额不过期,跨月使用的佬友
--【壹】--:
写代码不如5.4
其他的中文场景我觉得比5.4强,比如大型项目里的需求、设计、架构之类的文档工作
--【贰】--:
应该是这样的,我没了解过具体论文,看视频学习过大概意思应该就是通过KV Cache来获取之前回答过的Token
--【叁】--:
对,一开始用的比较多,刚刚我又用了一下,一百一十万token,用了4毛钱。所以数据只能作为参考,但是昨天缓存确实香。
昨天400万token,未命中缓存16万,今天200万token未命中缓存就有14万
--【肆】--:
请问命中缓存是什么呢?这个命中两个字不太明白,总是看别人在说
--【伍】--:
简单来说就是你问过的一次问题,后续又问了一个很类似的问题,这个类似这个概念比较模糊,对于计算机来说差不多就是在坐标系上的向量比较相近吧,所以实际上这个概念很模糊,反正你就理解为问了差不多的问题。
--【陆】--:
还没试过用cc然后使用ds的模型,请问这个适配性如何?之前听说ds适配agent的能力一般般。
--【柒】--:
佬,之前看过transformer的论文,它大概的意思是一次只能吐出一个token,然后之后如果还需要吐token就需要把吐出的token连同输入在放回向量中继续计下一个token;这里的缓存是不是上一次的计算结果?
--【捌】--:
之前看到消息说下半年算力起来了还会大幅降价,真的很期待啊
--【玖】--:
我更关心ds用起来怎么样,相比GPT5.4如何
--【拾】--:
看前端用什么工具吧,我用龙虾试了下 flash 模型,就发了俩字“测试”,花了一毛五
3c1fd64cfbc27237318d5d5544f59a10755×352 8.22 KB
--【拾壹】--:
真coding花费还是不低,codingplan性价比还是高的(火山除外)
--【拾贰】--:
据说cc并发很大,我第一天的时候用的cc,问了两个问题花了1.2rmb,不过目前好很多了,并发大也代表速度快嘛。ds这一代说是提升了agent的适配,我倒是只写过代码,感觉良好。
--【拾叁】--:
大概可以理解为,每一次query都需要计算入参,把入参转化成大模型可以理解的数据,这个计算过程会耗费算力,但是把一些计算结果缓存起来,下一次就能减少算力
--【拾肆】--:
中文书稿是什么? 自己写小说吗? 降价的ds确实爽
--【拾伍】--:
我嘞个豆,这缓存这么离谱吗?简直高的吓人
--【拾陆】--:
对话场景非常合适
缓存是默认的自动创建的,而且可以缓存几个小时

