opencode go上deepseek V4 pro和flash了

2026-04-29 09:142阅读0评论SEO基础
  • 内容介绍
  • 相关推荐
问题描述:

不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。
image703×785 31.4 KB

网友解答:
--【壹】--:

如果你实在想在Claude code用opencode go订阅,那就搭建一个cpa吧,选择openai兼容格式ai提供商添加opencode go,虽然我觉得opencode也还不错,这个我倒是测试过了,能正常使用


--【贰】--:

只是按单模型持续调用估算的次数,并不是严格计费标准

混用肯定调不了那么多,而且长上下文多了次数也会更少
image930×488 35.8 KB


--【叁】--:

go订阅里面的模型有原生的claude端点,也有原生的openai端点,
这是这个订阅最抽象的地方


--【肆】--:

请问佬,opencode上的deepseekv4怎样才能在claudecode中调用呢,之前尝试根本不行


--【伍】--:

opencode貌似只提供openai接口,minimax有anthropic接口但应该用不了


--【陆】--:

image936×679 37.2 KB
image362×227 3.67 KB
挺难绷的,但是官网和推特没说,现在速度快的离谱


--【柒】--:

有openai接口的,是预估请求数,还是按照token计算的,量很少一个月只有60刀


--【捌】--:

一周能给18600次?

这是多少钱的套餐,感觉好爽啊。

能2api吗


--【玖】--:

我在claudecode里调了anthropic接口,但是说我无权访问,改用ccs路由用会触发reasoningcontent的错误
image928×234 12.2 KB

image941×211 14.6 KB


--【拾】--:

早上包快的,得等下午 4 点美国早高峰看看咸淡


--【拾壹】--:

太爽啦!今天在官方渠道轻度使用已经烧了30多块了

v4pro的思考级别我还没有看到呢,这个可以配置嘛
image1246×469 6.36 KB

貌似找到啦 模型 | OpenCode


--【拾贰】--:

不是,18600是预估请求数,非按次数计算而是按token计算,opencode还是openai api接口一样是60刀的用量


--【拾叁】--:

这个是每个模型分别有这么多用量,还是所有模型共享总用量?


--【拾肆】--:

哦,明白了,谢谢佬友。

5刀博60刀呗~

但是现在pro的价格,定不了多久


--【拾伍】--:

image912×169 13.7 KB
deepseek好像也是anthropic接口


--【拾陆】--:

不太懂,这是什么意思?

在opencode上用,可以用18600,但是如果用openai接口,限额60刀这个意思吗


--【拾柒】--:

ollama 你为什么只是看着 光上个 flash 不够啊

话说 opengo 里 4pro 居然比 5.1 便宜?开源权重虽然是量化过的但应该也比 5.1 参数大吧?


--【拾捌】--:

抱歉,我没看文档,那应该是可以用,不过我没试过


--【拾玖】--:

谢谢佬的耐心回答了,感谢,目前就直接在opencode中用了,实际体验也还行。

问题描述:

不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。
image703×785 31.4 KB

网友解答:
--【壹】--:

如果你实在想在Claude code用opencode go订阅,那就搭建一个cpa吧,选择openai兼容格式ai提供商添加opencode go,虽然我觉得opencode也还不错,这个我倒是测试过了,能正常使用


--【贰】--:

只是按单模型持续调用估算的次数,并不是严格计费标准

混用肯定调不了那么多,而且长上下文多了次数也会更少
image930×488 35.8 KB


--【叁】--:

go订阅里面的模型有原生的claude端点,也有原生的openai端点,
这是这个订阅最抽象的地方


--【肆】--:

请问佬,opencode上的deepseekv4怎样才能在claudecode中调用呢,之前尝试根本不行


--【伍】--:

opencode貌似只提供openai接口,minimax有anthropic接口但应该用不了


--【陆】--:

image936×679 37.2 KB
image362×227 3.67 KB
挺难绷的,但是官网和推特没说,现在速度快的离谱


--【柒】--:

有openai接口的,是预估请求数,还是按照token计算的,量很少一个月只有60刀


--【捌】--:

一周能给18600次?

这是多少钱的套餐,感觉好爽啊。

能2api吗


--【玖】--:

我在claudecode里调了anthropic接口,但是说我无权访问,改用ccs路由用会触发reasoningcontent的错误
image928×234 12.2 KB

image941×211 14.6 KB


--【拾】--:

早上包快的,得等下午 4 点美国早高峰看看咸淡


--【拾壹】--:

太爽啦!今天在官方渠道轻度使用已经烧了30多块了

v4pro的思考级别我还没有看到呢,这个可以配置嘛
image1246×469 6.36 KB

貌似找到啦 模型 | OpenCode


--【拾贰】--:

不是,18600是预估请求数,非按次数计算而是按token计算,opencode还是openai api接口一样是60刀的用量


--【拾叁】--:

这个是每个模型分别有这么多用量,还是所有模型共享总用量?


--【拾肆】--:

哦,明白了,谢谢佬友。

5刀博60刀呗~

但是现在pro的价格,定不了多久


--【拾伍】--:

image912×169 13.7 KB
deepseek好像也是anthropic接口


--【拾陆】--:

不太懂,这是什么意思?

在opencode上用,可以用18600,但是如果用openai接口,限额60刀这个意思吗


--【拾柒】--:

ollama 你为什么只是看着 光上个 flash 不够啊

话说 opengo 里 4pro 居然比 5.1 便宜?开源权重虽然是量化过的但应该也比 5.1 参数大吧?


--【拾捌】--:

抱歉,我没看文档,那应该是可以用,不过我没试过


--【拾玖】--:

谢谢佬的耐心回答了,感谢,目前就直接在opencode中用了,实际体验也还行。