GPT写代码真不行吧(可能windsurf也不行)
- 内容介绍
- 文章标签
- 相关推荐
在windsurf里面用gpt-5.4-xhigh规划好了,然后切换gpt-5.3-codex-medium执行,上来直接给我干两个误伤文件,还是赶紧换claude干活吧
image1784×1218 314 KB
经佬们提醒,以后直接gpt-5.4-high/xhigh了,不会再用codex,特别是medium了
正在用xhigh执行,好慢啊
我说实话gpt-5.4-xhigh也不行,至少在windsurf里不行,思考巨慢,也会把文件写错。
image1527×1377 362 KB
image1526×1439 346 KB
image2346×1333 205 KB
实测 gpt-5.4-high 在codex也一般。写错行,给错命令也挺常见。
只不过它会自己修复,但会让我觉得不那么稳定可靠。
--【壹】--:
image313×284 8.97 KB不要再黑codex了,我让opus4.6(官方订阅)修bug,修完后让gpt5.4检查出4个问题,图中是给那gpt5.4的结果给opus4.6后的反馈。
--【贰】--:
还有不要用HIGH以下啊喂
--【叁】--:
不要用codex后缀的,感觉是为了追求速度牺牲了思考链路
--【肆】--:
开xhigh啊, 我觉得还是蛮好用的,5.4 不错, 5.2慢,但也不是不能用
--【伍】--:
你这严格上讲只是用了模型吧,客户端的调教也很重要
--【陆】--:
还有就是,codex尽量在codex cli或者codex app使用,上下文压缩无敌。
接入其他的效果会变差。
--【柒】--:
一般里说 medium可以用来做plan,执行还是xhigh吧
--【捌】--:
我们测试,不要太行
--【玖】--:
所以为什么不用xhigh
--【拾】--:
首先不管是gpt的模型还是claude的模型,思考请拉到最大,怎么花钱最多怎么来。其次不要用windsurf,这是个垃圾
--【拾壹】--:
有5.4 high/xhigh, 偏偏用5.3codex medium
唉,不行就不行吧
--【拾贰】--:
为什么不直接用gpt5.4 high/xhigh来写呢。
带codex后缀的还不如不带的好用,并且medium也太低了,一般要开high及以上的。
--【拾叁】--:
5.4h/xh绝对没问题的,当初5.3codex出了我试了下,都没用,直接转回5.2了
--【拾肆】--:
这话说的 大伙不用claude是不想吗
--【拾伍】--:
4.6opus 负责规划,gpt5.4 负责落地,这样体验会好不少
--【拾陆】--:
直接拉满,就是慢,但确实能出活的
--【拾柒】--:
好的,再也不用medium了
--【拾捌】--:
一般都是用gpt-5.4(xhigh),我们测试下来,还是很可以的
--【拾玖】--:
5.4 5.3codex 写代码有一说一已经是最行的一档了,前提是high或者是xhigh。
我的评价是夯爆了!不过最好是交叉验证一下。你用opus也一样,不同模型交叉验证效果大大的好就是token在燃烧~
在windsurf里面用gpt-5.4-xhigh规划好了,然后切换gpt-5.3-codex-medium执行,上来直接给我干两个误伤文件,还是赶紧换claude干活吧
image1784×1218 314 KB
经佬们提醒,以后直接gpt-5.4-high/xhigh了,不会再用codex,特别是medium了
正在用xhigh执行,好慢啊
我说实话gpt-5.4-xhigh也不行,至少在windsurf里不行,思考巨慢,也会把文件写错。
image1527×1377 362 KB
image1526×1439 346 KB
image2346×1333 205 KB
实测 gpt-5.4-high 在codex也一般。写错行,给错命令也挺常见。
只不过它会自己修复,但会让我觉得不那么稳定可靠。
--【壹】--:
image313×284 8.97 KB不要再黑codex了,我让opus4.6(官方订阅)修bug,修完后让gpt5.4检查出4个问题,图中是给那gpt5.4的结果给opus4.6后的反馈。
--【贰】--:
还有不要用HIGH以下啊喂
--【叁】--:
不要用codex后缀的,感觉是为了追求速度牺牲了思考链路
--【肆】--:
开xhigh啊, 我觉得还是蛮好用的,5.4 不错, 5.2慢,但也不是不能用
--【伍】--:
你这严格上讲只是用了模型吧,客户端的调教也很重要
--【陆】--:
还有就是,codex尽量在codex cli或者codex app使用,上下文压缩无敌。
接入其他的效果会变差。
--【柒】--:
一般里说 medium可以用来做plan,执行还是xhigh吧
--【捌】--:
我们测试,不要太行
--【玖】--:
所以为什么不用xhigh
--【拾】--:
首先不管是gpt的模型还是claude的模型,思考请拉到最大,怎么花钱最多怎么来。其次不要用windsurf,这是个垃圾
--【拾壹】--:
有5.4 high/xhigh, 偏偏用5.3codex medium
唉,不行就不行吧
--【拾贰】--:
为什么不直接用gpt5.4 high/xhigh来写呢。
带codex后缀的还不如不带的好用,并且medium也太低了,一般要开high及以上的。
--【拾叁】--:
5.4h/xh绝对没问题的,当初5.3codex出了我试了下,都没用,直接转回5.2了
--【拾肆】--:
这话说的 大伙不用claude是不想吗
--【拾伍】--:
4.6opus 负责规划,gpt5.4 负责落地,这样体验会好不少
--【拾陆】--:
直接拉满,就是慢,但确实能出活的
--【拾柒】--:
好的,再也不用medium了
--【拾捌】--:
一般都是用gpt-5.4(xhigh),我们测试下来,还是很可以的
--【拾玖】--:
5.4 5.3codex 写代码有一说一已经是最行的一档了,前提是high或者是xhigh。
我的评价是夯爆了!不过最好是交叉验证一下。你用opus也一样,不同模型交叉验证效果大大的好就是token在燃烧~

