Claude Code 中使用 GPT-5.4 模型

2026-04-11 11:081阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

因为今天刚出了 GPT-5.4 所以接到 cc 里面试了下,整体体验比我预想中要好不少。

为什么不用codex

点开也没答案

单纯喜欢 cc 啦

使用情况

  • cpa + free
  • GPT 模型开启 xhigh 模式可以参考 @jason_wong1 佬的教程:https://linux.do/t/topic/1698217
  • statusline 用的是 @Haleclipse 佬的 ccline

截图
Pasted image 202603061709151578×1580 360 KB
Pasted image 202603061709561454×474 47.9 KB

结论

  • 总的来说效果还可以,而且gpt模型遵守指令的能力非常强
网友解答:
--【壹】--:

佬 我记得5.3codex会出现调用工具很差的情况
5.4怎么样了


--【贰】--:

这都是非一般人才啊


--【叁】--:

如图工具调用基本没问题


--【肆】--:

但是很慢,特别的慢


--【伍】--:

说实话这个算不算牛头人


--【陆】--:

image1740×1006 104 KB
佬是这样设置嘛


--【柒】--:

怎么在claude code中使用gpt模型的?是需要其他转换么


--【捌】--:

我是在 cc 用的,设置的 1m


--【玖】--:

测了下真能用


--【拾】--:

你好,请问一下,你这样搭配出来的GPT 5.4上下文窗口是多大?我跟你这样搭配CPA+free ,然后结合插件提供给vscode+copilot使用,即使设置为1M,在copilot chat里,上下文只有128K,搞得我有点怀疑了,因为copilot自身的GPT 5.4上下文窗口是有278K的。


--【拾壹】--:

模型ID的显示可以做出美化 以及 上下文窗口的数值也能够控制计算

详见 ~/.claude/ccline/models.toml


--【拾贰】--:

5.4一来好几屏幕输出


--【拾叁】--:

先生大才啊


--【拾肆】--:

对的(๑>؂<๑)


--【拾伍】--:

这个不清楚诶,看上下文好像没有膨胀的情况


--【拾陆】--:

缓存怎么样,gpt5.2接入消耗量是codex的几倍


--【拾柒】--:

感谢大佬!


--【拾捌】--:

是的,而且输出的内容非常多


--【拾玖】--:

我在openclaw里都嫌5.4啰嗦 退回5.2了

问题描述:

因为今天刚出了 GPT-5.4 所以接到 cc 里面试了下,整体体验比我预想中要好不少。

为什么不用codex

点开也没答案

单纯喜欢 cc 啦

使用情况

  • cpa + free
  • GPT 模型开启 xhigh 模式可以参考 @jason_wong1 佬的教程:https://linux.do/t/topic/1698217
  • statusline 用的是 @Haleclipse 佬的 ccline

截图
Pasted image 202603061709151578×1580 360 KB
Pasted image 202603061709561454×474 47.9 KB

结论

  • 总的来说效果还可以,而且gpt模型遵守指令的能力非常强
网友解答:
--【壹】--:

佬 我记得5.3codex会出现调用工具很差的情况
5.4怎么样了


--【贰】--:

这都是非一般人才啊


--【叁】--:

如图工具调用基本没问题


--【肆】--:

但是很慢,特别的慢


--【伍】--:

说实话这个算不算牛头人


--【陆】--:

image1740×1006 104 KB
佬是这样设置嘛


--【柒】--:

怎么在claude code中使用gpt模型的?是需要其他转换么


--【捌】--:

我是在 cc 用的,设置的 1m


--【玖】--:

测了下真能用


--【拾】--:

你好,请问一下,你这样搭配出来的GPT 5.4上下文窗口是多大?我跟你这样搭配CPA+free ,然后结合插件提供给vscode+copilot使用,即使设置为1M,在copilot chat里,上下文只有128K,搞得我有点怀疑了,因为copilot自身的GPT 5.4上下文窗口是有278K的。


--【拾壹】--:

模型ID的显示可以做出美化 以及 上下文窗口的数值也能够控制计算

详见 ~/.claude/ccline/models.toml


--【拾贰】--:

5.4一来好几屏幕输出


--【拾叁】--:

先生大才啊


--【拾肆】--:

对的(๑>؂<๑)


--【拾伍】--:

这个不清楚诶,看上下文好像没有膨胀的情况


--【拾陆】--:

缓存怎么样,gpt5.2接入消耗量是codex的几倍


--【拾柒】--:

感谢大佬!


--【拾捌】--:

是的,而且输出的内容非常多


--【拾玖】--:

我在openclaw里都嫌5.4啰嗦 退回5.2了