有些时候不要太低估国产模型,qwen3.6plus

2026-04-11 08:241阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image2106×1450 511 KB

左codex,我跑路三个codex,只有一个codex找到了答案,总耗费时间约1个多小时,前前后后,qwen3.6plus 1分钟,几次工具调用。

image376×1380 14.8 KB
image376×1380 19 KB

网友解答:
--【壹】--:

看来都得试一试,每一代出来都有提升的样子


--【贰】--:

这啥扩展来的


看到是CSS类目的问题就不足为奇了


--【叁】--:

界面样式类bug 还得是看谁能全面的读进去逮出来关键DOM交叉联系
一旦说是 跑的太长了 LLM就开始晕头转向了
基本是不如 重开一个发现问题根源概率来的高

同时提示词引导也很重要 总之比较奇特的一个场景了 逻辑不多 难度也不高 就是很难整对


--【肆】--:

qwen3.6是还不错的呀,但还没有爽吃到,没有coding plan


--【伍】--:

qwen3.6plus上下文是256k ?


--【陆】--:

今天还有阿里云打电话来说看到我在搜索百炼相关的,问我对qwen的体验如何,我说我都抢不到codingplan,他让我预充200抢的时候比较好支付 不过qwen好像有体验额度


--【柒】--:

抱歉算错了,我像指的是它实际用的,实际用的128k左右


--【捌】--:

1M

不可否认的 Qwen 3.5+ Plus 我感觉都还挺不错的

(我用的付费官方API 吐字都老快了)


--【玖】--:

我现在很多日常的小任务也会用3.6plus,基本不会给我那种很犯蠢的回复,可用性还是很高的


--【拾】--:

是kilo吗,我看到kilo有free的qwen


--【拾壹】--:

no,这玩意看巧思,前几次codex死脑筋,全量读,两个文件全量上下文 1.6m +,几次都没用,只有最后一次codex知道跑diff,而q3.6p(实际用了128k左右上下文),直接diff,直接找到关键


--【拾贰】--:

opencode里试过,确实体验还不错,而且作为限时免费产品居然还有很可观的速度,我还是很满意的,做的挺好,后续不免费了肯定会考虑为这个模型付费


--【拾叁】--:

Gemini 3.1 这种注意力涣散的有时候也能发现其他模型发现不了的问题
但我依然不会因为这个首选3.1去coding
大家用的数据集不一样 天生概率分布就是不一样的
强弱只是说大部分场景下谁更强 不能保证所有场景都稳压其他人一头


--【拾肆】--:

kilo,干好q3.6p免费,就抱着试一试的心态,结果成了 我codex一个小时搞不定,q3.6p一分钟


--【拾伍】--:

终于起来了吗,看样子要安排一下试试了。不过听说api用量限制也很严格?


--【拾陆】--:

哈雷佬的解读好仔细啊。果然还是要深入了解细节


--【拾柒】--:

还得是官方的呀,前几天用 openrouter 还挺快,现在一用就限速了,算力不够了


--【拾捌】--:

正常,现在的大模型基本都是抽奖,这家抽不到换另外一家就能抽到了!


--【拾玖】--:

这个qwen3.6可以用到龙虾上吗? .

标签:软件开发
问题描述:

image2106×1450 511 KB

左codex,我跑路三个codex,只有一个codex找到了答案,总耗费时间约1个多小时,前前后后,qwen3.6plus 1分钟,几次工具调用。

image376×1380 14.8 KB
image376×1380 19 KB

网友解答:
--【壹】--:

看来都得试一试,每一代出来都有提升的样子


--【贰】--:

这啥扩展来的


看到是CSS类目的问题就不足为奇了


--【叁】--:

界面样式类bug 还得是看谁能全面的读进去逮出来关键DOM交叉联系
一旦说是 跑的太长了 LLM就开始晕头转向了
基本是不如 重开一个发现问题根源概率来的高

同时提示词引导也很重要 总之比较奇特的一个场景了 逻辑不多 难度也不高 就是很难整对


--【肆】--:

qwen3.6是还不错的呀,但还没有爽吃到,没有coding plan


--【伍】--:

qwen3.6plus上下文是256k ?


--【陆】--:

今天还有阿里云打电话来说看到我在搜索百炼相关的,问我对qwen的体验如何,我说我都抢不到codingplan,他让我预充200抢的时候比较好支付 不过qwen好像有体验额度


--【柒】--:

抱歉算错了,我像指的是它实际用的,实际用的128k左右


--【捌】--:

1M

不可否认的 Qwen 3.5+ Plus 我感觉都还挺不错的

(我用的付费官方API 吐字都老快了)


--【玖】--:

我现在很多日常的小任务也会用3.6plus,基本不会给我那种很犯蠢的回复,可用性还是很高的


--【拾】--:

是kilo吗,我看到kilo有free的qwen


--【拾壹】--:

no,这玩意看巧思,前几次codex死脑筋,全量读,两个文件全量上下文 1.6m +,几次都没用,只有最后一次codex知道跑diff,而q3.6p(实际用了128k左右上下文),直接diff,直接找到关键


--【拾贰】--:

opencode里试过,确实体验还不错,而且作为限时免费产品居然还有很可观的速度,我还是很满意的,做的挺好,后续不免费了肯定会考虑为这个模型付费


--【拾叁】--:

Gemini 3.1 这种注意力涣散的有时候也能发现其他模型发现不了的问题
但我依然不会因为这个首选3.1去coding
大家用的数据集不一样 天生概率分布就是不一样的
强弱只是说大部分场景下谁更强 不能保证所有场景都稳压其他人一头


--【拾肆】--:

kilo,干好q3.6p免费,就抱着试一试的心态,结果成了 我codex一个小时搞不定,q3.6p一分钟


--【拾伍】--:

终于起来了吗,看样子要安排一下试试了。不过听说api用量限制也很严格?


--【拾陆】--:

哈雷佬的解读好仔细啊。果然还是要深入了解细节


--【拾柒】--:

还得是官方的呀,前几天用 openrouter 还挺快,现在一用就限速了,算力不够了


--【拾捌】--:

正常,现在的大模型基本都是抽奖,这家抽不到换另外一家就能抽到了!


--【拾玖】--:

这个qwen3.6可以用到龙虾上吗? .

标签:软件开发