opencode和claude code接入智谱订阅速度是否有差异?
- 内容介绍
- 文章标签
- 相关推荐
今天同事搞了个智谱的Max Coding plan,我在opencode和claude code里分别试了试,感觉接入opencode里的TPS远快于接入Claude code。
同样的问题,oc里思考的长度更长,而cc里的思考长度比较短,而且完成任务的速度慢了不少。不知是因为接入anthropic格式或OpenAI格式的endpoint导致的差异,还是二者架构的差异?
不过有一说一,在cc里接入的时候,GLM 5.1还是很勤快地调用工具的,就是不咋思考,然后在oc里接入的时候,猛猛思考,但是不咋用工具
--【壹】--:
我再研究下,谢谢佬
--【贰】--:
我这边没手动开,版本是 2.1.81,流式好像不会有 10ktoken 才输出的情况诶
--【叁】--:
我觉得差别不大吧,你可以在 CC 里开一下/model,然后最下面有调整思考力度。但是 opencode+omo之类的我觉得也还是不如 CC 效果好。tps 感受差异可能是二者在渲染上的不同,CC 最近才支持流式,会看起来好像卡了很久才憋出来一段话
--【肆】--:
佬,cc 的流式需要手动开吗。我是 cc 接 glm-5t 用的,经常发现 1万多token还不出字
今天同事搞了个智谱的Max Coding plan,我在opencode和claude code里分别试了试,感觉接入opencode里的TPS远快于接入Claude code。
同样的问题,oc里思考的长度更长,而cc里的思考长度比较短,而且完成任务的速度慢了不少。不知是因为接入anthropic格式或OpenAI格式的endpoint导致的差异,还是二者架构的差异?
不过有一说一,在cc里接入的时候,GLM 5.1还是很勤快地调用工具的,就是不咋思考,然后在oc里接入的时候,猛猛思考,但是不咋用工具
--【壹】--:
我再研究下,谢谢佬
--【贰】--:
我这边没手动开,版本是 2.1.81,流式好像不会有 10ktoken 才输出的情况诶
--【叁】--:
我觉得差别不大吧,你可以在 CC 里开一下/model,然后最下面有调整思考力度。但是 opencode+omo之类的我觉得也还是不如 CC 效果好。tps 感受差异可能是二者在渲染上的不同,CC 最近才支持流式,会看起来好像卡了很久才憋出来一段话
--【肆】--:
佬,cc 的流式需要手动开吗。我是 cc 接 glm-5t 用的,经常发现 1万多token还不出字

