分享一次Codex App使用第三方API和image-2模型生图的成功实验
- 内容介绍
- 文章标签
- 相关推荐
首先说Gpt-5.5是真的强,与Codex App真的是绝配。
使用环境:Windows + Codex-App + 【哈基米API公益站】(感谢哈基米)
之前用其它公益站的gpt-5.4 使用 /imagegen 命令不能生图,会卡在调用生图技能后不动了,今早刚好看到哈基米公益站同时提供了gpt-5.5 和 gpt-image-2 这两个模型,于是打算试试codex-app 能不能调用image-2 这个模型生图。
过程:
一、在~\config.toml 里设置好哈基米的base_url和api_key 及gpt-5.5 模型
二、首先叫它详细解析/image gen这个skill的详细内容,看见下面解析:
这个技能明确只有两个顶层模式。
第一个是默认内置工具模式,也就是 image_gen。这是首选路径,用于普通图片生成、图片编辑、简单透明背景需求。它不需要 OPENAI_API_KEY。
第二个是 fallback CLI 模式,也就是 scripts/image_gen.py。只有在用户明确要求 CLI/API/model 路径,或者透明背景任务确实需要 gpt-image-1.5 原生透明输出并且用户确认后,才能使用。这个路径需要 OPENAI_API_KEY。
重点限制是:不能因为想控制尺寸、质量、路径,就随便切到 CLI。普通任务默认都走内置 image_gen。
三、CLI 不是默认兜底
CLI 有三个子命令:
- generate
- edit
- generate-batch
但技能反复强调:CLI 是 fallback,不是常规路径。
首先说Gpt-5.5是真的强,与Codex App真的是绝配。
使用环境:Windows + Codex-App + 【哈基米API公益站】(感谢哈基米)
之前用其它公益站的gpt-5.4 使用 /imagegen 命令不能生图,会卡在调用生图技能后不动了,今早刚好看到哈基米公益站同时提供了gpt-5.5 和 gpt-image-2 这两个模型,于是打算试试codex-app 能不能调用image-2 这个模型生图。
过程:
一、在~\config.toml 里设置好哈基米的base_url和api_key 及gpt-5.5 模型
二、首先叫它详细解析/image gen这个skill的详细内容,看见下面解析:
这个技能明确只有两个顶层模式。
第一个是默认内置工具模式,也就是 image_gen。这是首选路径,用于普通图片生成、图片编辑、简单透明背景需求。它不需要 OPENAI_API_KEY。
第二个是 fallback CLI 模式,也就是 scripts/image_gen.py。只有在用户明确要求 CLI/API/model 路径,或者透明背景任务确实需要 gpt-image-1.5 原生透明输出并且用户确认后,才能使用。这个路径需要 OPENAI_API_KEY。
重点限制是:不能因为想控制尺寸、质量、路径,就随便切到 CLI。普通任务默认都走内置 image_gen。
三、CLI 不是默认兜底
CLI 有三个子命令:
- generate
- edit
- generate-batch
但技能反复强调:CLI 是 fallback,不是常规路径。

