GPT写代码真不行吧(可能windsurf也不行)

2026-04-11 12:481阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

在windsurf里面用gpt-5.4-xhigh规划好了,然后切换gpt-5.3-codex-medium执行,上来直接给我干两个误伤文件,还是赶紧换claude干活吧
image1784×1218 314 KB


经佬们提醒,以后直接gpt-5.4-high/xhigh了,不会再用codex,特别是medium了


正在用xhigh执行,好慢啊


我说实话gpt-5.4-xhigh也不行,至少在windsurf里不行,思考巨慢,也会把文件写错。

image1527×1377 362 KB
image1526×1439 346 KB


image2346×1333 205 KB

实测 gpt-5.4-high 在codex也一般。写错行,给错命令也挺常见。
只不过它会自己修复,但会让我觉得不那么稳定可靠。

网友解答:
--【壹】--:

image313×284 8.97 KB不要再黑codex了,我让opus4.6(官方订阅)修bug,修完后让gpt5.4检查出4个问题,图中是给那gpt5.4的结果给opus4.6后的反馈。


--【贰】--:

还有不要用HIGH以下啊喂


--【叁】--:

不要用codex后缀的,感觉是为了追求速度牺牲了思考链路


--【肆】--:

开xhigh啊, 我觉得还是蛮好用的,5.4 不错, 5.2慢,但也不是不能用


--【伍】--:

你这严格上讲只是用了模型吧,客户端的调教也很重要


--【陆】--:

还有就是,codex尽量在codex cli或者codex app使用,上下文压缩无敌。
接入其他的效果会变差。


--【柒】--:

一般里说 medium可以用来做plan,执行还是xhigh吧


--【捌】--:

我们测试,不要太行


--【玖】--:

所以为什么不用xhigh


--【拾】--:

首先不管是gpt的模型还是claude的模型,思考请拉到最大,怎么花钱最多怎么来。其次不要用windsurf,这是个垃圾


--【拾壹】--:

有5.4 high/xhigh, 偏偏用5.3codex medium

唉,不行就不行吧


--【拾贰】--:

为什么不直接用gpt5.4 high/xhigh来写呢。
带codex后缀的还不如不带的好用,并且medium也太低了,一般要开high及以上的。


--【拾叁】--:

5.4h/xh绝对没问题的,当初5.3codex出了我试了下,都没用,直接转回5.2了


--【拾肆】--:

这话说的 大伙不用claude是不想吗


--【拾伍】--:

4.6opus 负责规划,gpt5.4 负责落地,这样体验会好不少


--【拾陆】--:

直接拉满,就是慢,但确实能出活的


--【拾柒】--:

好的,再也不用medium了


--【拾捌】--:

一般都是用gpt-5.4(xhigh),我们测试下来,还是很可以的


--【拾玖】--:

5.4 5.3codex 写代码有一说一已经是最行的一档了,前提是high或者是xhigh。
我的评价是夯爆了!不过最好是交叉验证一下。你用opus也一样,不同模型交叉验证效果大大的好就是token在燃烧~

标签:纯水
问题描述:

在windsurf里面用gpt-5.4-xhigh规划好了,然后切换gpt-5.3-codex-medium执行,上来直接给我干两个误伤文件,还是赶紧换claude干活吧
image1784×1218 314 KB


经佬们提醒,以后直接gpt-5.4-high/xhigh了,不会再用codex,特别是medium了


正在用xhigh执行,好慢啊


我说实话gpt-5.4-xhigh也不行,至少在windsurf里不行,思考巨慢,也会把文件写错。

image1527×1377 362 KB
image1526×1439 346 KB


image2346×1333 205 KB

实测 gpt-5.4-high 在codex也一般。写错行,给错命令也挺常见。
只不过它会自己修复,但会让我觉得不那么稳定可靠。

网友解答:
--【壹】--:

image313×284 8.97 KB不要再黑codex了,我让opus4.6(官方订阅)修bug,修完后让gpt5.4检查出4个问题,图中是给那gpt5.4的结果给opus4.6后的反馈。


--【贰】--:

还有不要用HIGH以下啊喂


--【叁】--:

不要用codex后缀的,感觉是为了追求速度牺牲了思考链路


--【肆】--:

开xhigh啊, 我觉得还是蛮好用的,5.4 不错, 5.2慢,但也不是不能用


--【伍】--:

你这严格上讲只是用了模型吧,客户端的调教也很重要


--【陆】--:

还有就是,codex尽量在codex cli或者codex app使用,上下文压缩无敌。
接入其他的效果会变差。


--【柒】--:

一般里说 medium可以用来做plan,执行还是xhigh吧


--【捌】--:

我们测试,不要太行


--【玖】--:

所以为什么不用xhigh


--【拾】--:

首先不管是gpt的模型还是claude的模型,思考请拉到最大,怎么花钱最多怎么来。其次不要用windsurf,这是个垃圾


--【拾壹】--:

有5.4 high/xhigh, 偏偏用5.3codex medium

唉,不行就不行吧


--【拾贰】--:

为什么不直接用gpt5.4 high/xhigh来写呢。
带codex后缀的还不如不带的好用,并且medium也太低了,一般要开high及以上的。


--【拾叁】--:

5.4h/xh绝对没问题的,当初5.3codex出了我试了下,都没用,直接转回5.2了


--【拾肆】--:

这话说的 大伙不用claude是不想吗


--【拾伍】--:

4.6opus 负责规划,gpt5.4 负责落地,这样体验会好不少


--【拾陆】--:

直接拉满,就是慢,但确实能出活的


--【拾柒】--:

好的,再也不用medium了


--【拾捌】--:

一般都是用gpt-5.4(xhigh),我们测试下来,还是很可以的


--【拾玖】--:

5.4 5.3codex 写代码有一说一已经是最行的一档了,前提是high或者是xhigh。
我的评价是夯爆了!不过最好是交叉验证一下。你用opus也一样,不同模型交叉验证效果大大的好就是token在燃烧~

标签:纯水