ChatGPT 5.5 降智?

2026-04-29 08:082阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

有没有佬友感觉gpt 5.5 不如刚出来的时候好用了?
刚出来的那两天,我用codex,感觉他会思考很多很多。但是现在感觉他已经完全不思考了,拍脑袋就是给答案。
我用的一直都是xhigh,现在感觉和low一样。
token的使用情况也反映了这一点,当时usage,和上下文消耗的非常非常快,一会就没了,一条prompt能消耗plus的 3-5% 5hour,但是回答的质量是真的高。能看出来他在思考,斟酌。当时感觉不说给opus 4.7 一脚踹死吧,回答质量也是远远高于了。当时稍微改改文章,就能用20多M Token。
现在感觉usage消耗的速度也就是当时的1/10。(我是用他改论文,所以用多少完全取决于他的思维深度。)拍脑袋就是给我答案,完全不思考了。
不知道是我的错觉吗?还是别的佬友也有这种感觉?

网友解答:
--【壹】--:

说快的都不是用的xhigh吧,或者effort被强改了吧,我怎么感觉xhigh还是慢的离谱啊


--【贰】--:

主要是xhigh太快了,用着不太放心的感觉


--【叁】--:

有点降智了,不如刚出来的时候稳,现在会偷懒并且有错误了,之前一把过还顺便思考其他的BUG


--【肆】--:

今天的确有点降智了,很多小错误一直叫他修改,下次又犯


--【伍】--:

没啥感觉,白嫖的公益站,不过可能我也没干啥太复杂的任务就是了


--【陆】--:

我也发现,今天感觉没以前聪明了,问题刚发出去,就给我回答了,并且回答的质量有所下降


--【柒】--:

5.5模型medium速度输出结果快的离谱,用5.4至少还有thinking过程。


--【捌】--:

我也有这种感觉。我感觉一方面是回答速度变快了,思考深度变得浅很多很多。并且它不会主动去解决别的问题,显得很被动。
感觉他一直在尝试用对他来说最简单的方式满足我的要求。


--【玖】--:

补充一下,codex 我用的是plus订阅,claude 我用的是max 订阅,都是官方渠道。


--【拾】--:

最近都在用deepseekv4pro(max)当外置大脑写规划以及plan,5.5当码农,没什么感觉


--【拾壹】--:

我用的xhigh,都是直接秒出答案,之前刚出5.5的时候我记得要等好一会。难道这个思维深度也是根据服务器压力动态调整的?


--【拾贰】--:

没感觉很降智,倒是感觉快的离谱了现在,基本上只有pro模型,思考也是最低几十秒,最高才几分钟


--【拾叁】--:

可能因为我需求都比较简单没感觉降智,但现在输出速度快的离谱,比5.4 thinking网页端都快,有点不敢用了x


--【拾肆】--:

第一天出来所有都是一把过,今天感觉很多低级错误,还得我去纠正。


--【拾伍】--: 楠木:

实现

提供一种思路:你可以搜索一下 CodeX MCP,在 GitHub 上开源的,1.9k stars目前,可以让 Claude Code 通过 MCP 指挥 CodeX 干活,然后 Claude Code 本身可以换模型。把 Claude code 的模型换成 Deepseek,就可以让 Deepseek 指挥 CodeX 了。


--【拾陆】--:

奇怪了,我也是用xhigh,还是好使,有些小问题他也帮你解决,也有思考时间


--【拾柒】--:

最近就是感觉速度变快了好多,几乎不思考就直接出答案


--【拾捌】--:

确实吐字很快。目前用来改代码比较少,感觉质量也还行。废话少了一点说的还快摸鱼间隙大大减少


--【拾玖】--:

佬,可以请教一下,这样子是如何实现的呢?需要用到什么第三方工具吗?

问题描述:

有没有佬友感觉gpt 5.5 不如刚出来的时候好用了?
刚出来的那两天,我用codex,感觉他会思考很多很多。但是现在感觉他已经完全不思考了,拍脑袋就是给答案。
我用的一直都是xhigh,现在感觉和low一样。
token的使用情况也反映了这一点,当时usage,和上下文消耗的非常非常快,一会就没了,一条prompt能消耗plus的 3-5% 5hour,但是回答的质量是真的高。能看出来他在思考,斟酌。当时感觉不说给opus 4.7 一脚踹死吧,回答质量也是远远高于了。当时稍微改改文章,就能用20多M Token。
现在感觉usage消耗的速度也就是当时的1/10。(我是用他改论文,所以用多少完全取决于他的思维深度。)拍脑袋就是给我答案,完全不思考了。
不知道是我的错觉吗?还是别的佬友也有这种感觉?

网友解答:
--【壹】--:

说快的都不是用的xhigh吧,或者effort被强改了吧,我怎么感觉xhigh还是慢的离谱啊


--【贰】--:

主要是xhigh太快了,用着不太放心的感觉


--【叁】--:

有点降智了,不如刚出来的时候稳,现在会偷懒并且有错误了,之前一把过还顺便思考其他的BUG


--【肆】--:

今天的确有点降智了,很多小错误一直叫他修改,下次又犯


--【伍】--:

没啥感觉,白嫖的公益站,不过可能我也没干啥太复杂的任务就是了


--【陆】--:

我也发现,今天感觉没以前聪明了,问题刚发出去,就给我回答了,并且回答的质量有所下降


--【柒】--:

5.5模型medium速度输出结果快的离谱,用5.4至少还有thinking过程。


--【捌】--:

我也有这种感觉。我感觉一方面是回答速度变快了,思考深度变得浅很多很多。并且它不会主动去解决别的问题,显得很被动。
感觉他一直在尝试用对他来说最简单的方式满足我的要求。


--【玖】--:

补充一下,codex 我用的是plus订阅,claude 我用的是max 订阅,都是官方渠道。


--【拾】--:

最近都在用deepseekv4pro(max)当外置大脑写规划以及plan,5.5当码农,没什么感觉


--【拾壹】--:

我用的xhigh,都是直接秒出答案,之前刚出5.5的时候我记得要等好一会。难道这个思维深度也是根据服务器压力动态调整的?


--【拾贰】--:

没感觉很降智,倒是感觉快的离谱了现在,基本上只有pro模型,思考也是最低几十秒,最高才几分钟


--【拾叁】--:

可能因为我需求都比较简单没感觉降智,但现在输出速度快的离谱,比5.4 thinking网页端都快,有点不敢用了x


--【拾肆】--:

第一天出来所有都是一把过,今天感觉很多低级错误,还得我去纠正。


--【拾伍】--: 楠木:

实现

提供一种思路:你可以搜索一下 CodeX MCP,在 GitHub 上开源的,1.9k stars目前,可以让 Claude Code 通过 MCP 指挥 CodeX 干活,然后 Claude Code 本身可以换模型。把 Claude code 的模型换成 Deepseek,就可以让 Deepseek 指挥 CodeX 了。


--【拾陆】--:

奇怪了,我也是用xhigh,还是好使,有些小问题他也帮你解决,也有思考时间


--【拾柒】--:

最近就是感觉速度变快了好多,几乎不思考就直接出答案


--【拾捌】--:

确实吐字很快。目前用来改代码比较少,感觉质量也还行。废话少了一点说的还快摸鱼间隙大大减少


--【拾玖】--:

佬,可以请教一下,这样子是如何实现的呢?需要用到什么第三方工具吗?