opencodego的DeepSeek额度是不是又多了

2026-04-29 08:141阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

图片1190×1038 69.7 KB
快16万次的4flash感觉很变态啊

网友解答:
--【壹】--:

不需要反代,官网上面有调用的api端点。


--【贰】--:

是增多了,刚开始pro额度好像是2000多,主要速度也挺稳定的,这套餐确实是最划算的了


--【叁】--:

v4出了后opencode go第一时间上了,可能是走的ds官方


--【肆】--:

他这个模型是每一个可以用到这个还是总次数了? 比如我用了deepseek 10000次 那么GLM-5.1 可以用吗 还是次数全局性的?


--【伍】--:

截屏2026-04-27 22.23.082286×230 18.8 KB
截屏2026-04-27 22.22.59768×814 19.6 KB
实际上使用起来感觉并没有想像的那么多吧.感觉不是很耐用 ,不过有一说一.速度倒是挺快的.调用工具也Ok


--【陆】--:

1…1…109亿吗 我去,这得多少个0


--【柒】--:

确实是16万次,要月抛了吗?首月5折香爆了。


--【捌】--:

走的应该是官方 deepseek 吧
不然不会这么便宜


--【玖】--:

哇感觉这个性价比真的很高啊,我怎么现在才知道,比各家的 coding plan 好多了,coding plan 经常 busy 用不了,还很慢


--【拾】--:

图片1185×1011 109 KB
我感觉非常可以了


--【拾壹】--:

研究了一下,OpenCodeGo所说的完全是标题党,请求次数是基于其“估算值”

例如:

  • GLM-5/5.1 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
  • Kimi K2.5/K2.6 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
  • DeepSeek V4 Pro — 每次请求 750 个输入 token,82,000 个缓存 token,290 个输出 token

次数可以说是毫无参考意义


--【拾贰】--:

你这张表是用ai总结的,ai没显示的是月预估token中缓存token占了大部分,这实际上是opencode玩的一个文字游戏,比如glm-5实际5小时token数也就2-3M左右


--【拾叁】--:

赶紧反代出来,一起爽用啊,这个首月5折真的很香啊


--【拾肆】--:

这样看完全不够用! 几次提问了没了! 还是想别的办法了!


--【拾伍】--:

话说,感觉列表里面模型使用数量不错,现在有OpenCodeGo的反代项目吗


--【拾陆】--:

这么多,这下不得不冲了,早就听说opencodgo给的量很慷慨


--【拾柒】--:

这个表很虚假,下面有预估值,自己算一下就知道了

标签:人工智能
问题描述:

图片1190×1038 69.7 KB
快16万次的4flash感觉很变态啊

网友解答:
--【壹】--:

不需要反代,官网上面有调用的api端点。


--【贰】--:

是增多了,刚开始pro额度好像是2000多,主要速度也挺稳定的,这套餐确实是最划算的了


--【叁】--:

v4出了后opencode go第一时间上了,可能是走的ds官方


--【肆】--:

他这个模型是每一个可以用到这个还是总次数了? 比如我用了deepseek 10000次 那么GLM-5.1 可以用吗 还是次数全局性的?


--【伍】--:

截屏2026-04-27 22.23.082286×230 18.8 KB
截屏2026-04-27 22.22.59768×814 19.6 KB
实际上使用起来感觉并没有想像的那么多吧.感觉不是很耐用 ,不过有一说一.速度倒是挺快的.调用工具也Ok


--【陆】--:

1…1…109亿吗 我去,这得多少个0


--【柒】--:

确实是16万次,要月抛了吗?首月5折香爆了。


--【捌】--:

走的应该是官方 deepseek 吧
不然不会这么便宜


--【玖】--:

哇感觉这个性价比真的很高啊,我怎么现在才知道,比各家的 coding plan 好多了,coding plan 经常 busy 用不了,还很慢


--【拾】--:

图片1185×1011 109 KB
我感觉非常可以了


--【拾壹】--:

研究了一下,OpenCodeGo所说的完全是标题党,请求次数是基于其“估算值”

例如:

  • GLM-5/5.1 — 每次请求 700 个输入 token,52,000 个缓存 token,150 个输出 token
  • Kimi K2.5/K2.6 — 每次请求 870 个输入 token,55,000 个缓存 token,200 个输出 token
  • DeepSeek V4 Pro — 每次请求 750 个输入 token,82,000 个缓存 token,290 个输出 token

次数可以说是毫无参考意义


--【拾贰】--:

你这张表是用ai总结的,ai没显示的是月预估token中缓存token占了大部分,这实际上是opencode玩的一个文字游戏,比如glm-5实际5小时token数也就2-3M左右


--【拾叁】--:

赶紧反代出来,一起爽用啊,这个首月5折真的很香啊


--【拾肆】--:

这样看完全不够用! 几次提问了没了! 还是想别的办法了!


--【拾伍】--:

话说,感觉列表里面模型使用数量不错,现在有OpenCodeGo的反代项目吗


--【拾陆】--:

这么多,这下不得不冲了,早就听说opencodgo给的量很慷慨


--【拾柒】--:

这个表很虚假,下面有预估值,自己算一下就知道了

标签:人工智能