有些时候不要太低估国产模型,qwen3.6plus
- 内容介绍
- 文章标签
- 相关推荐
image2106×1450 511 KB
左codex,我跑路三个codex,只有一个codex找到了答案,总耗费时间约1个多小时,前前后后,qwen3.6plus 1分钟,几次工具调用。
image376×1380 14.8 KB
image376×1380 19 KB
--【壹】--:
看来都得试一试,每一代出来都有提升的样子
--【贰】--:
这啥扩展来的
看到是CSS类目的问题就不足为奇了
--【叁】--:
界面样式类bug 还得是看谁能全面的读进去逮出来关键DOM交叉联系
一旦说是 跑的太长了 LLM就开始晕头转向了
基本是不如 重开一个发现问题根源概率来的高
同时提示词引导也很重要 总之比较奇特的一个场景了 逻辑不多 难度也不高 就是很难整对
--【肆】--:
qwen3.6是还不错的呀,但还没有爽吃到,没有coding plan
--【伍】--:
qwen3.6plus上下文是256k ?
--【陆】--:
今天还有阿里云打电话来说看到我在搜索百炼相关的,问我对qwen的体验如何,我说我都抢不到codingplan,他让我预充200抢的时候比较好支付 不过qwen好像有体验额度
--【柒】--:
抱歉算错了,我像指的是它实际用的,实际用的128k左右
--【捌】--:
1M
不可否认的 Qwen 3.5+ Plus 我感觉都还挺不错的
(我用的付费官方API 吐字都老快了)
--【玖】--:
我现在很多日常的小任务也会用3.6plus,基本不会给我那种很犯蠢的回复,可用性还是很高的
--【拾】--:
是kilo吗,我看到kilo有free的qwen
--【拾壹】--:
no,这玩意看巧思,前几次codex死脑筋,全量读,两个文件全量上下文 1.6m +,几次都没用,只有最后一次codex知道跑diff,而q3.6p(实际用了128k左右上下文),直接diff,直接找到关键
--【拾贰】--:
opencode里试过,确实体验还不错,而且作为限时免费产品居然还有很可观的速度,我还是很满意的,做的挺好,后续不免费了肯定会考虑为这个模型付费
--【拾叁】--:
Gemini 3.1 这种注意力涣散的有时候也能发现其他模型发现不了的问题
但我依然不会因为这个首选3.1去coding
大家用的数据集不一样 天生概率分布就是不一样的
强弱只是说大部分场景下谁更强 不能保证所有场景都稳压其他人一头
--【拾肆】--:
kilo,干好q3.6p免费,就抱着试一试的心态,结果成了 我codex一个小时搞不定,q3.6p一分钟
--【拾伍】--:
终于起来了吗,看样子要安排一下试试了。不过听说api用量限制也很严格?
--【拾陆】--:
哈雷佬的解读好仔细啊。果然还是要深入了解细节
--【拾柒】--:
还得是官方的呀,前几天用 openrouter 还挺快,现在一用就限速了,算力不够了
--【拾捌】--:
正常,现在的大模型基本都是抽奖,这家抽不到换另外一家就能抽到了!
--【拾玖】--:
这个qwen3.6可以用到龙虾上吗? .
image2106×1450 511 KB
左codex,我跑路三个codex,只有一个codex找到了答案,总耗费时间约1个多小时,前前后后,qwen3.6plus 1分钟,几次工具调用。
image376×1380 14.8 KB
image376×1380 19 KB
--【壹】--:
看来都得试一试,每一代出来都有提升的样子
--【贰】--:
这啥扩展来的
看到是CSS类目的问题就不足为奇了
--【叁】--:
界面样式类bug 还得是看谁能全面的读进去逮出来关键DOM交叉联系
一旦说是 跑的太长了 LLM就开始晕头转向了
基本是不如 重开一个发现问题根源概率来的高
同时提示词引导也很重要 总之比较奇特的一个场景了 逻辑不多 难度也不高 就是很难整对
--【肆】--:
qwen3.6是还不错的呀,但还没有爽吃到,没有coding plan
--【伍】--:
qwen3.6plus上下文是256k ?
--【陆】--:
今天还有阿里云打电话来说看到我在搜索百炼相关的,问我对qwen的体验如何,我说我都抢不到codingplan,他让我预充200抢的时候比较好支付 不过qwen好像有体验额度
--【柒】--:
抱歉算错了,我像指的是它实际用的,实际用的128k左右
--【捌】--:
1M
不可否认的 Qwen 3.5+ Plus 我感觉都还挺不错的
(我用的付费官方API 吐字都老快了)
--【玖】--:
我现在很多日常的小任务也会用3.6plus,基本不会给我那种很犯蠢的回复,可用性还是很高的
--【拾】--:
是kilo吗,我看到kilo有free的qwen
--【拾壹】--:
no,这玩意看巧思,前几次codex死脑筋,全量读,两个文件全量上下文 1.6m +,几次都没用,只有最后一次codex知道跑diff,而q3.6p(实际用了128k左右上下文),直接diff,直接找到关键
--【拾贰】--:
opencode里试过,确实体验还不错,而且作为限时免费产品居然还有很可观的速度,我还是很满意的,做的挺好,后续不免费了肯定会考虑为这个模型付费
--【拾叁】--:
Gemini 3.1 这种注意力涣散的有时候也能发现其他模型发现不了的问题
但我依然不会因为这个首选3.1去coding
大家用的数据集不一样 天生概率分布就是不一样的
强弱只是说大部分场景下谁更强 不能保证所有场景都稳压其他人一头
--【拾肆】--:
kilo,干好q3.6p免费,就抱着试一试的心态,结果成了 我codex一个小时搞不定,q3.6p一分钟
--【拾伍】--:
终于起来了吗,看样子要安排一下试试了。不过听说api用量限制也很严格?
--【拾陆】--:
哈雷佬的解读好仔细啊。果然还是要深入了解细节
--【拾柒】--:
还得是官方的呀,前几天用 openrouter 还挺快,现在一用就限速了,算力不够了
--【拾捌】--:
正常,现在的大模型基本都是抽奖,这家抽不到换另外一家就能抽到了!
--【拾玖】--:
这个qwen3.6可以用到龙虾上吗? .

