GPT 5.5终于不再问我愿不愿意,能一次性把活干完了 | Token消耗也大幅增加

2026-04-29 10:232阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

十几个任务,能一次性完成。

就是目前上下文只有258k,基本每一两次对话就自动压缩。

大概一次对话能用掉Pro 20x的3%的5小时限额,感觉跑满5小时真能把限额用完

image1672×941 508 KB

网友解答:
--【壹】--:

图片明显bug 5.5 怎么生成4.5了


--【贰】--:

只想问佬什么时候有pro的车开 ,已经不满足于家宽了。


--【叁】--:

佬,直接给他个目标就行了吗?还是说需要各种提示词?


--【肆】--:

图片提示词有问题吧?怎么是 4.4 到 4.5 呢?不是 5.4 到 5.5 吗


--【伍】--:

图片中的数字搞反啦,是GPT-5.4不是GPT-4.5~


--【陆】--:

看着进度挺大的啊,一次性输入多个要求,直接给出最终想要的等东西;


--【柒】--:

继续工程师要下岗了?双手离开键盘了?可以愉快的干其它了


--【捌】--:

恭喜恭喜,就是终于不用一直我愿意我愿意了


--【玖】--:

是的,而且速度快了好多。

我算了下同样的内容,完成速度大概快了50%


--【拾】--:

好事儿啊,之前每次任务都要问我一下,这下方便了


--【拾壹】--:

那用hemers好像没啥影响,默认128k就准备压缩了。


--【拾贰】--:

ChatGPT Image 2026年4月24日 1559381672×941 491 KB
这个风格不错,做的挺好的


--【拾叁】--:

gpt 生成的图为什么还是4.4和4.5 喂的提示词错了?


--【拾肆】--:

实测效果确实不错,就是token耗的太厉害了,两个team号,干到5h限额了,40多M吧


--【拾伍】--:

可以在 hermes 的 config.yaml 指定 context_length:

model: default: gpt-5.4 context_length: 262144 api_mode: codex_responses


--【拾陆】--:

5.5 体验确实还可以 长上下文一样还是会忘


--【拾柒】--:

让人感到害怕,
这样的话岂不是又要压缩工时

问题描述:

十几个任务,能一次性完成。

就是目前上下文只有258k,基本每一两次对话就自动压缩。

大概一次对话能用掉Pro 20x的3%的5小时限额,感觉跑满5小时真能把限额用完

image1672×941 508 KB

网友解答:
--【壹】--:

图片明显bug 5.5 怎么生成4.5了


--【贰】--:

只想问佬什么时候有pro的车开 ,已经不满足于家宽了。


--【叁】--:

佬,直接给他个目标就行了吗?还是说需要各种提示词?


--【肆】--:

图片提示词有问题吧?怎么是 4.4 到 4.5 呢?不是 5.4 到 5.5 吗


--【伍】--:

图片中的数字搞反啦,是GPT-5.4不是GPT-4.5~


--【陆】--:

看着进度挺大的啊,一次性输入多个要求,直接给出最终想要的等东西;


--【柒】--:

继续工程师要下岗了?双手离开键盘了?可以愉快的干其它了


--【捌】--:

恭喜恭喜,就是终于不用一直我愿意我愿意了


--【玖】--:

是的,而且速度快了好多。

我算了下同样的内容,完成速度大概快了50%


--【拾】--:

好事儿啊,之前每次任务都要问我一下,这下方便了


--【拾壹】--:

那用hemers好像没啥影响,默认128k就准备压缩了。


--【拾贰】--:

ChatGPT Image 2026年4月24日 1559381672×941 491 KB
这个风格不错,做的挺好的


--【拾叁】--:

gpt 生成的图为什么还是4.4和4.5 喂的提示词错了?


--【拾肆】--:

实测效果确实不错,就是token耗的太厉害了,两个team号,干到5h限额了,40多M吧


--【拾伍】--:

可以在 hermes 的 config.yaml 指定 context_length:

model: default: gpt-5.4 context_length: 262144 api_mode: codex_responses


--【拾陆】--:

5.5 体验确实还可以 长上下文一样还是会忘


--【拾柒】--:

让人感到害怕,
这样的话岂不是又要压缩工时