我改了一下 New API,现在可以直接用 gpt-image-2 了
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
目前 gpt-image-2 这个新生图模型,主要是 Codex 的 ChatGPT 登录态可以用;但如果通过 New API 来管理渠道,codex客户端接入newapi的,就没法直接使用生图能力。
我的这个修改就是为了解决这个痛点:把 New API 里 Codex 渠道背后的 gpt-image-2 生图能力单独接出来。
现在可以直接通过 OpenAI 兼容的图片接口请求:
POST /v1/images/generations
POST /v1/images/edits
也就是说,不需要在 Codex 对话里绕一圈触发生图,而是可以像普通图片模型一样,在 New API 里直接调用 Codex 渠道背后的 gpt-image-2。
问题描述:
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
目前 gpt-image-2 这个新生图模型,主要是 Codex 的 ChatGPT 登录态可以用;但如果通过 New API 来管理渠道,codex客户端接入newapi的,就没法直接使用生图能力。
我的这个修改就是为了解决这个痛点:把 New API 里 Codex 渠道背后的 gpt-image-2 生图能力单独接出来。
现在可以直接通过 OpenAI 兼容的图片接口请求:
POST /v1/images/generations
POST /v1/images/edits
也就是说,不需要在 Codex 对话里绕一圈触发生图,而是可以像普通图片模型一样,在 New API 里直接调用 Codex 渠道背后的 gpt-image-2。

