Qwen 3.6 主观使用体验评价

2026-04-11 11:261阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

本人完全是业余开发,大佬勿喷

我从前天安装好 qwen code, 一直在 vibe coding

速度挺快的,提交了这么多次代码

image961×804 81.7 KB

仓库内的失败 ci 构建都是 qwen 写出来的

之前一直是用 gpt 5.4 在做开发,qwen3.6plus 给我的体感是不如 5.4 的,偶尔会忘记上一轮提过的需求,明明上下文更长,但有些改动其实并没有很好的注意到项目中的其他功能 (这应该是 qwen code 的问题吧 )

但是,这个模型能力还是很强的,和 gpt5.4 的区别在于不能举一反三,会在一定程度上局限于提示词的详细程度和描述水平。

即使有时会在修 bug 时写出来更多 bug,不过通常在 2-3 轮对话内就能解决掉

现在这个模型在 qwen code 里面免费用,比 trae 的免费限速策略舒服的多

总结:适合需要免费 vibe coding 的开发者,要花更多的时间去描述需求,进行更多轮次的对话,能作为 GLM-5 平替用,速度快很多。

以上仅限于 React 和 Python 技术栈,在其他语言中可能会有不一样的体感

网友解答:
--【壹】--:

那这么看其实已经很强了啊.准备试试.


--【贰】--:

有阿里云账号就可以直接免费用了,每天1000次请求


--【叁】--:

qwen不知道为什么,偶尔在cli里问问题他会一直重复一个回答 感觉随手用用还行主力就有点难受


--【肆】--:

佬、这个是要在阿里百炼买套餐才可以用吗?请指点指点


--【伍】--:

我也刚体验完,很拉垮。

我只让qw2.6plus 给我测试一下我自己的中转url能不能用(其实是能用的),url,key,模型ID都给他了,只是模型ID我写的是GPT5.4(实际应该的小写的),这个傻子试了半天都没搞对,就说我服务上游不通。

后来切到opus了,他先访问了模型列表,发现我给他的模型ID应该是小写的,然后直接就通了,我一口水还没喝完了就搞定了。

这些大厂,发布模型就知道吹,超越这个超越那个,遥遥领先。


--【陆】--:

速度确实快,用来处理一点杂事挺好
说清楚需求就行


--【柒】--:

qwen code这个项目的上下文管理做的拉稀

同样的API,qwen code上下文长了会忘记最开始的任务跑偏

接Claude Code就正常。


--【捌】--:

1000次免费请求能拿出来放在claude里面用吗


--【玖】--:

Qwen这个模型也就编程开发好点,拿去做点别的,日常任务有SOP之类的表现还是不太好


--【拾】--:

对,上下文确实很难用,超过10%上下文窗口后再用会很笨,不知道为什么


--【拾壹】--:

这个模型简直一坨大粪
1.调用工具有时候会掉链子。明明给了他文档链接,还没read就说已经读过了
2.特别喜欢编制东西,明明让他看源码后解释,非得不看自己自作主张
3.智商不行,同一个知识点问两次两次不一样的结果
4.上下文太低,在60-70k上下文开始输出英文,超过100k经常遇到调用工具失败,几乎没法用,使用起来心智负担极其高


--【拾贰】--:

看到之前有人推,说是距离cladue差不多,听楼主这么一说,还是可用的


--【拾叁】--:

我用来跑翻译任务,上下文接近50%了,都还可以了。


--【拾肆】--:

之前偶然用过 qwen code 这个客户端,感觉 bug 很多

咕咕嘎嘎


--【拾伍】--:

我是直接让gpt给提示词,然后总结他做没做完,没做完就继续发提示,让他继续做。这样贼快。

问题描述:

本人完全是业余开发,大佬勿喷

我从前天安装好 qwen code, 一直在 vibe coding

速度挺快的,提交了这么多次代码

image961×804 81.7 KB

仓库内的失败 ci 构建都是 qwen 写出来的

之前一直是用 gpt 5.4 在做开发,qwen3.6plus 给我的体感是不如 5.4 的,偶尔会忘记上一轮提过的需求,明明上下文更长,但有些改动其实并没有很好的注意到项目中的其他功能 (这应该是 qwen code 的问题吧 )

但是,这个模型能力还是很强的,和 gpt5.4 的区别在于不能举一反三,会在一定程度上局限于提示词的详细程度和描述水平。

即使有时会在修 bug 时写出来更多 bug,不过通常在 2-3 轮对话内就能解决掉

现在这个模型在 qwen code 里面免费用,比 trae 的免费限速策略舒服的多

总结:适合需要免费 vibe coding 的开发者,要花更多的时间去描述需求,进行更多轮次的对话,能作为 GLM-5 平替用,速度快很多。

以上仅限于 React 和 Python 技术栈,在其他语言中可能会有不一样的体感

网友解答:
--【壹】--:

那这么看其实已经很强了啊.准备试试.


--【贰】--:

有阿里云账号就可以直接免费用了,每天1000次请求


--【叁】--:

qwen不知道为什么,偶尔在cli里问问题他会一直重复一个回答 感觉随手用用还行主力就有点难受


--【肆】--:

佬、这个是要在阿里百炼买套餐才可以用吗?请指点指点


--【伍】--:

我也刚体验完,很拉垮。

我只让qw2.6plus 给我测试一下我自己的中转url能不能用(其实是能用的),url,key,模型ID都给他了,只是模型ID我写的是GPT5.4(实际应该的小写的),这个傻子试了半天都没搞对,就说我服务上游不通。

后来切到opus了,他先访问了模型列表,发现我给他的模型ID应该是小写的,然后直接就通了,我一口水还没喝完了就搞定了。

这些大厂,发布模型就知道吹,超越这个超越那个,遥遥领先。


--【陆】--:

速度确实快,用来处理一点杂事挺好
说清楚需求就行


--【柒】--:

qwen code这个项目的上下文管理做的拉稀

同样的API,qwen code上下文长了会忘记最开始的任务跑偏

接Claude Code就正常。


--【捌】--:

1000次免费请求能拿出来放在claude里面用吗


--【玖】--:

Qwen这个模型也就编程开发好点,拿去做点别的,日常任务有SOP之类的表现还是不太好


--【拾】--:

对,上下文确实很难用,超过10%上下文窗口后再用会很笨,不知道为什么


--【拾壹】--:

这个模型简直一坨大粪
1.调用工具有时候会掉链子。明明给了他文档链接,还没read就说已经读过了
2.特别喜欢编制东西,明明让他看源码后解释,非得不看自己自作主张
3.智商不行,同一个知识点问两次两次不一样的结果
4.上下文太低,在60-70k上下文开始输出英文,超过100k经常遇到调用工具失败,几乎没法用,使用起来心智负担极其高


--【拾贰】--:

看到之前有人推,说是距离cladue差不多,听楼主这么一说,还是可用的


--【拾叁】--:

我用来跑翻译任务,上下文接近50%了,都还可以了。


--【拾肆】--:

之前偶然用过 qwen code 这个客户端,感觉 bug 很多

咕咕嘎嘎


--【拾伍】--:

我是直接让gpt给提示词,然后总结他做没做完,没做完就继续发提示,让他继续做。这样贼快。