GPT 5.5终于不再问我愿不愿意,能一次性把活干完了 | Token消耗也大幅增加
- 内容介绍
- 文章标签
- 相关推荐
十几个任务,能一次性完成。
就是目前上下文只有258k,基本每一两次对话就自动压缩。
大概一次对话能用掉Pro 20x的3%的5小时限额,感觉跑满5小时真能把限额用完
image1672×941 508 KB
网友解答:--【壹】--:
图片明显bug 5.5 怎么生成4.5了
--【贰】--:
只想问佬什么时候有pro的车开 ,已经不满足于家宽了。
--【叁】--:
佬,直接给他个目标就行了吗?还是说需要各种提示词?
--【肆】--:
图片提示词有问题吧?怎么是 4.4 到 4.5 呢?不是 5.4 到 5.5 吗
--【伍】--:
图片中的数字搞反啦,是GPT-5.4不是GPT-4.5~
--【陆】--:
看着进度挺大的啊,一次性输入多个要求,直接给出最终想要的等东西;
--【柒】--:
继续工程师要下岗了?双手离开键盘了?可以愉快的干其它了
--【捌】--:
恭喜恭喜,就是终于不用一直我愿意我愿意了
--【玖】--:
是的,而且速度快了好多。
我算了下同样的内容,完成速度大概快了50%
--【拾】--:
好事儿啊,之前每次任务都要问我一下,这下方便了
--【拾壹】--:
那用hemers好像没啥影响,默认128k就准备压缩了。
--【拾贰】--:
ChatGPT Image 2026年4月24日 1559381672×941 491 KB
这个风格不错,做的挺好的
--【拾叁】--:
gpt 生成的图为什么还是4.4和4.5 喂的提示词错了?
--【拾肆】--:
实测效果确实不错,就是token耗的太厉害了,两个team号,干到5h限额了,40多M吧
--【拾伍】--:
可以在 hermes 的 config.yaml 指定 context_length:
model:
default: gpt-5.4
context_length: 262144
api_mode: codex_responses
--【拾陆】--:
5.5 体验确实还可以 长上下文一样还是会忘
--【拾柒】--:
让人感到害怕,
这样的话岂不是又要压缩工时
十几个任务,能一次性完成。
就是目前上下文只有258k,基本每一两次对话就自动压缩。
大概一次对话能用掉Pro 20x的3%的5小时限额,感觉跑满5小时真能把限额用完
image1672×941 508 KB
网友解答:--【壹】--:
图片明显bug 5.5 怎么生成4.5了
--【贰】--:
只想问佬什么时候有pro的车开 ,已经不满足于家宽了。
--【叁】--:
佬,直接给他个目标就行了吗?还是说需要各种提示词?
--【肆】--:
图片提示词有问题吧?怎么是 4.4 到 4.5 呢?不是 5.4 到 5.5 吗
--【伍】--:
图片中的数字搞反啦,是GPT-5.4不是GPT-4.5~
--【陆】--:
看着进度挺大的啊,一次性输入多个要求,直接给出最终想要的等东西;
--【柒】--:
继续工程师要下岗了?双手离开键盘了?可以愉快的干其它了
--【捌】--:
恭喜恭喜,就是终于不用一直我愿意我愿意了
--【玖】--:
是的,而且速度快了好多。
我算了下同样的内容,完成速度大概快了50%
--【拾】--:
好事儿啊,之前每次任务都要问我一下,这下方便了
--【拾壹】--:
那用hemers好像没啥影响,默认128k就准备压缩了。
--【拾贰】--:
ChatGPT Image 2026年4月24日 1559381672×941 491 KB
这个风格不错,做的挺好的
--【拾叁】--:
gpt 生成的图为什么还是4.4和4.5 喂的提示词错了?
--【拾肆】--:
实测效果确实不错,就是token耗的太厉害了,两个team号,干到5h限额了,40多M吧
--【拾伍】--:
可以在 hermes 的 config.yaml 指定 context_length:
model:
default: gpt-5.4
context_length: 262144
api_mode: codex_responses
--【拾陆】--:
5.5 体验确实还可以 长上下文一样还是会忘
--【拾柒】--:
让人感到害怕,
这样的话岂不是又要压缩工时

