qwen 3.6 plus很适合openclaw做自动化任务
- 内容介绍
- 文章标签
- 相关推荐
我把qwen cli的coder-model导入openclaw,速度和成功率都不错
免费1000次/天,1000K上下文
速度算是国内模型中最快的了,120 tok/s
image862×749 65.1 KB
浏览器自动化用起来比自己操作浏览器快,比GLM快多了
大部分自动化任务不需要很强的模型,所以用这种零成本的模型就很好了
网友解答:--【壹】--:
我直接在cli里用也感受到了
处理任务的速度飞快
--【贰】--:
哦,那应该反代出来的也是3.6了
--【叁】--:
image661×580 35 KB
--【肆】--:
image853×878 72.6 KB
支持多模态
--【伍】--:
其实我觉得对应的任务用对应的小模型或者划算的模型是真的挺对的,降本还增加效率,让在某一方面能力强的模型去干就行,这样就真正能打通提效率+降成本的感觉~
(预想)
--【陆】--:
对话体验怎么样?还是适合作为subagent呢?
--【柒】--:
感觉3.6相对3.5还是有提升的,特别是那个中英文强制空格的问题,应该也解决了。
--【捌】--:
这个模型用了一下 感觉有点拉
--【玖】--:
OpenClaw本身就支持qwen auth
你也可以使用CLI Proxy中转
--【拾】--:
如果要在龙虾里面使用这个多模态能力,那就中转
--【拾壹】--:
做什么任务
--【拾贰】--:
v6.9.12版本吗? 我看还是3.5
image500×222 4.22 KB
--【拾叁】--: Mozi:
n cli的coder-model导入openclaw,速度和成功率都不错
免费1000次/天,1000K上下文
速度算是国内模型中最快的了,120 tok/s
怎么导入了,不太熟悉
--【拾肆】--:
佬友 请问一下这是怎么导入到openclaw的啊
--【拾伍】--:
coder-model是3.6plus吗?
--【拾陆】--:
下午用3.6-plus画了一个鹈鹕骑自行车, 真的可以!
svg-1775181446654600×500 7.11 KB
--【拾柒】--:
是的,国产的其他模型都超慢的
--【拾捌】--:
是的,今天更新了。你看CLI里面也已经标明了,现在就是3.6
--【拾玖】--:
不知道我的机器跑得起来不
我把qwen cli的coder-model导入openclaw,速度和成功率都不错
免费1000次/天,1000K上下文
速度算是国内模型中最快的了,120 tok/s
image862×749 65.1 KB
浏览器自动化用起来比自己操作浏览器快,比GLM快多了
大部分自动化任务不需要很强的模型,所以用这种零成本的模型就很好了
网友解答:--【壹】--:
我直接在cli里用也感受到了
处理任务的速度飞快
--【贰】--:
哦,那应该反代出来的也是3.6了
--【叁】--:
image661×580 35 KB
--【肆】--:
image853×878 72.6 KB
支持多模态
--【伍】--:
其实我觉得对应的任务用对应的小模型或者划算的模型是真的挺对的,降本还增加效率,让在某一方面能力强的模型去干就行,这样就真正能打通提效率+降成本的感觉~
(预想)
--【陆】--:
对话体验怎么样?还是适合作为subagent呢?
--【柒】--:
感觉3.6相对3.5还是有提升的,特别是那个中英文强制空格的问题,应该也解决了。
--【捌】--:
这个模型用了一下 感觉有点拉
--【玖】--:
OpenClaw本身就支持qwen auth
你也可以使用CLI Proxy中转
--【拾】--:
如果要在龙虾里面使用这个多模态能力,那就中转
--【拾壹】--:
做什么任务
--【拾贰】--:
v6.9.12版本吗? 我看还是3.5
image500×222 4.22 KB
--【拾叁】--: Mozi:
n cli的coder-model导入openclaw,速度和成功率都不错
免费1000次/天,1000K上下文
速度算是国内模型中最快的了,120 tok/s
怎么导入了,不太熟悉
--【拾肆】--:
佬友 请问一下这是怎么导入到openclaw的啊
--【拾伍】--:
coder-model是3.6plus吗?
--【拾陆】--:
下午用3.6-plus画了一个鹈鹕骑自行车, 真的可以!
svg-1775181446654600×500 7.11 KB
--【拾柒】--:
是的,国产的其他模型都超慢的
--【拾捌】--:
是的,今天更新了。你看CLI里面也已经标明了,现在就是3.6
--【拾玖】--:
不知道我的机器跑得起来不

