ChatGPT 5.5长上下文能力暴增(仅略微逊色于4.6opus)
- 内容介绍
- 文章标签
- 相关推荐
image1380×784 76.8 KB
image1085×689 71.7 KB
图源于gpt -5.5联网搜索资料绘制,我宣布gpt-5.5是真正补齐了gpt-5.4的两大短板:黑话和伪一百万上下文,已经成为唯一真神大模型,不过目前codex无法订阅打开,等openai更新
网友解答:--【壹】--:
订阅的就开不了,无论是否2api。官方API可以,但API还没上5.5
--【贰】--:
直接改配置文件就好了,搜一下站内有不少教程的
--【叁】--:
订阅2api出来的能开1m吗,还是官版api才行
--【肆】--:
估计是bug吧,没更新过来,gpt5.4我记得就可以开启一百万上下文,就是太蠢大伙懒得开,等明早更新
--【伍】--:
但是你们有谁开了1m成功的吗,我反正开了目前是没反应的还是200多k的上下文
--【陆】--:
可惜,不过有400k了话,可以把官版默认的256改成400吧?
--【柒】--:
不,官网明确说了 Codex 订阅仅提供 400K
In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.
--【捌】--:
说的是 GPT-5.5,5.4 一直都可以
--【玖】--:
一直都能开吧,我一直都是开的,也用过800k一次性
--【拾】--:
这个具体怎么改呢,我这走订阅的5.5还是256K
--【拾壹】--:
image1724×908 56.4 KB
问了一下ChatGPT确实不支持,可惜了,不过应该很快就跟进的吧,不然和奥特曼拼了
--【拾贰】--:
400是 260左右的输入+128的输出+少量冗余,除非你把输出改小,我记得似乎可以
--【拾叁】--:
5.5,codex 订阅是开不了 1M 的,API 才行
--【拾肆】--:
web端的thinking和pro哪个更好用啊
image1380×784 76.8 KB
image1085×689 71.7 KB
图源于gpt -5.5联网搜索资料绘制,我宣布gpt-5.5是真正补齐了gpt-5.4的两大短板:黑话和伪一百万上下文,已经成为唯一真神大模型,不过目前codex无法订阅打开,等openai更新
网友解答:--【壹】--:
订阅的就开不了,无论是否2api。官方API可以,但API还没上5.5
--【贰】--:
直接改配置文件就好了,搜一下站内有不少教程的
--【叁】--:
订阅2api出来的能开1m吗,还是官版api才行
--【肆】--:
估计是bug吧,没更新过来,gpt5.4我记得就可以开启一百万上下文,就是太蠢大伙懒得开,等明早更新
--【伍】--:
但是你们有谁开了1m成功的吗,我反正开了目前是没反应的还是200多k的上下文
--【陆】--:
可惜,不过有400k了话,可以把官版默认的256改成400吧?
--【柒】--:
不,官网明确说了 Codex 订阅仅提供 400K
In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.
--【捌】--:
说的是 GPT-5.5,5.4 一直都可以
--【玖】--:
一直都能开吧,我一直都是开的,也用过800k一次性
--【拾】--:
这个具体怎么改呢,我这走订阅的5.5还是256K
--【拾壹】--:
image1724×908 56.4 KB
问了一下ChatGPT确实不支持,可惜了,不过应该很快就跟进的吧,不然和奥特曼拼了
--【拾贰】--:
400是 260左右的输入+128的输出+少量冗余,除非你把输出改小,我记得似乎可以
--【拾叁】--:
5.5,codex 订阅是开不了 1M 的,API 才行
--【拾肆】--:
web端的thinking和pro哪个更好用啊

