opencodego的DeepSeek额度是不是又多了
- 内容介绍
- 文章标签
- 相关推荐
图片1190×1038 69.7 KB
快16万次的4flash感觉很变态啊
--【壹】--:
不需要反代,官网上面有调用的api端点。
--【贰】--:
是增多了,刚开始pro额度好像是2000多,主要速度也挺稳定的,这套餐确实是最划算的了
--【叁】--:
v4出了后opencode go第一时间上了,可能是走的ds官方
--【肆】--:
他这个模型是每一个可以用到这个还是总次数了? 比如我用了deepseek 10000次 那么GLM-5.1 可以用吗 还是次数全局性的?
--【伍】--:
截屏2026-04-27 22.23.082286×230 18.8 KB
截屏2026-04-27 22.22.59768×814 19.6 KB
实际上使用起来感觉并没有想像的那么多吧.感觉不是很耐用 ,不过有一说一.速度倒是挺快的.调用工具也Ok
--【陆】--:
1…1…109亿吗 我去,这得多少个0
--【柒】--:
确实是16万次,要月抛了吗?首月5折香爆了。
--【捌】--:
走的应该是官方 deepseek 吧
不然不会这么便宜
--【玖】--:
哇感觉这个性价比真的很高啊,我怎么现在才知道,比各家的 coding plan 好多了,coding plan 经常 busy 用不了,还很慢
--【拾】--:
图片1185×1011 109 KB
我感觉非常可以了
--【拾壹】--:
研究了一下,OpenCodeGo所说的完全是标题党,请求次数是基于其“估算值”
例如:
- GLM-5/5.1 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
- Kimi K2.5/K2.6 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
- DeepSeek V4 Pro — 每次请求 750 个输入 token,82,000 个缓存 token,290 个输出 token
次数可以说是毫无参考意义
--【拾贰】--:
你这张表是用ai总结的,ai没显示的是月预估token中缓存token占了大部分,这实际上是opencode玩的一个文字游戏,比如glm-5实际5小时token数也就2-3M左右
--【拾叁】--:
赶紧反代出来,一起爽用啊,这个首月5折真的很香啊
--【拾肆】--:
这样看完全不够用! 几次提问了没了! 还是想别的办法了!
--【拾伍】--:
话说,感觉列表里面模型使用数量不错,现在有OpenCodeGo的反代项目吗
--【拾陆】--:
这么多,这下不得不冲了,早就听说opencodgo给的量很慷慨
--【拾柒】--:
这个表很虚假,下面有预估值,自己算一下就知道了
图片1190×1038 69.7 KB
快16万次的4flash感觉很变态啊
--【壹】--:
不需要反代,官网上面有调用的api端点。
--【贰】--:
是增多了,刚开始pro额度好像是2000多,主要速度也挺稳定的,这套餐确实是最划算的了
--【叁】--:
v4出了后opencode go第一时间上了,可能是走的ds官方
--【肆】--:
他这个模型是每一个可以用到这个还是总次数了? 比如我用了deepseek 10000次 那么GLM-5.1 可以用吗 还是次数全局性的?
--【伍】--:
截屏2026-04-27 22.23.082286×230 18.8 KB
截屏2026-04-27 22.22.59768×814 19.6 KB
实际上使用起来感觉并没有想像的那么多吧.感觉不是很耐用 ,不过有一说一.速度倒是挺快的.调用工具也Ok
--【陆】--:
1…1…109亿吗 我去,这得多少个0
--【柒】--:
确实是16万次,要月抛了吗?首月5折香爆了。
--【捌】--:
走的应该是官方 deepseek 吧
不然不会这么便宜
--【玖】--:
哇感觉这个性价比真的很高啊,我怎么现在才知道,比各家的 coding plan 好多了,coding plan 经常 busy 用不了,还很慢
--【拾】--:
图片1185×1011 109 KB
我感觉非常可以了
--【拾壹】--:
研究了一下,OpenCodeGo所说的完全是标题党,请求次数是基于其“估算值”
例如:
- GLM-5/5.1 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
- Kimi K2.5/K2.6 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
- DeepSeek V4 Pro — 每次请求 750 个输入 token,82,000 个缓存 token,290 个输出 token
次数可以说是毫无参考意义
--【拾贰】--:
你这张表是用ai总结的,ai没显示的是月预估token中缓存token占了大部分,这实际上是opencode玩的一个文字游戏,比如glm-5实际5小时token数也就2-3M左右
--【拾叁】--:
赶紧反代出来,一起爽用啊,这个首月5折真的很香啊
--【拾肆】--:
这样看完全不够用! 几次提问了没了! 还是想别的办法了!
--【拾伍】--:
话说,感觉列表里面模型使用数量不错,现在有OpenCodeGo的反代项目吗
--【拾陆】--:
这么多,这下不得不冲了,早就听说opencodgo给的量很慷慨
--【拾柒】--:
这个表很虚假,下面有预估值,自己算一下就知道了

