【开源自荐】轻量级Codex客户端 API 网关
- 内容介绍
- 文章标签
- 相关推荐
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
本项目是一个兼容 OpenAI 接口规范的轻量级 API 网关。自带了开箱即用的现代化 Web 管理面板,方便管理模型账号、系统动态配置以及监控请求运行状态。
比较适合个人搭建中转站,项目地址:GitHub - naka1205/codex-api: OpenAI API gateway for Codex · GitHub
项目截图:
Dashboard3388×1958 298 KB
Accounts3400×1954 428 KB
Models3388×1958 327 KB
Logs1920×1103 108 KB
Settings3388×1958 444 KB
Cherry Studio21148×858 74.5 KB
Codex1309×941 171 KB
配置参考:
config.toml
model = "gpt-5.5"
model_provider = "nkkcc"
model_reasoning_effort = "xhigh"
disable_response_storage = true
[model_providers.nkkcc]
name = "nkkcc"
base_url = "https://codex.nkkcc.com/v1"
auth.json
{
"OPENAI_API_KEY": "sk-AIzaSyCs2XSaLDUSXrGV_hUtGkdsAzR4DpCDBmk"
}
以上测试站点挂了一个车队,可以轻度测试(不要干坏事)。
另外本人还开发两套不同的 API 网关:
1.支持多渠道以及多客户端协议
上游渠道:codex、antigravity、gemini、kiro、grok
客户端协议:OpenAI, Gemini, Claude
2.在原有基础上重构,裂变出客户端协议互通,支持claude code客户端调用 gemini
截屏2026-04-26 00.58.073400×1954 434 KB
网友解答:--【壹】--:
已经 star 了 这下舒服了 chat 和 res 是自动转换吗 我看你有模型测活 上游限制客户端怎么办
--【贰】--:
账号管理的导入功能是什么样的格式啊,支持cpa或者sub2api导入吗
--【叁】--:
你可能看错了,没有测活的功能,是可用模型列表拉取。上游请求已经参考codex源码进行优化
--【肆】--:
使用codex客户端网页授权后,然后获取授权文件中的Refresh Token导入
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
- 我的帖子已经打上 开源推广 标签: 是
- 我的开源项目完整开源,无未开源部分: 是
- 我的开源项目已链接认可 LINUX DO 社区: 是
- 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是
- 以上选择我承诺是永久有效的,接受社区和佬友监督: 是
以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出
本项目是一个兼容 OpenAI 接口规范的轻量级 API 网关。自带了开箱即用的现代化 Web 管理面板,方便管理模型账号、系统动态配置以及监控请求运行状态。
比较适合个人搭建中转站,项目地址:GitHub - naka1205/codex-api: OpenAI API gateway for Codex · GitHub
项目截图:
Dashboard3388×1958 298 KB
Accounts3400×1954 428 KB
Models3388×1958 327 KB
Logs1920×1103 108 KB
Settings3388×1958 444 KB
Cherry Studio21148×858 74.5 KB
Codex1309×941 171 KB
配置参考:
config.toml
model = "gpt-5.5"
model_provider = "nkkcc"
model_reasoning_effort = "xhigh"
disable_response_storage = true
[model_providers.nkkcc]
name = "nkkcc"
base_url = "https://codex.nkkcc.com/v1"
auth.json
{
"OPENAI_API_KEY": "sk-AIzaSyCs2XSaLDUSXrGV_hUtGkdsAzR4DpCDBmk"
}
以上测试站点挂了一个车队,可以轻度测试(不要干坏事)。
另外本人还开发两套不同的 API 网关:
1.支持多渠道以及多客户端协议
上游渠道:codex、antigravity、gemini、kiro、grok
客户端协议:OpenAI, Gemini, Claude
2.在原有基础上重构,裂变出客户端协议互通,支持claude code客户端调用 gemini
截屏2026-04-26 00.58.073400×1954 434 KB
网友解答:--【壹】--:
已经 star 了 这下舒服了 chat 和 res 是自动转换吗 我看你有模型测活 上游限制客户端怎么办
--【贰】--:
账号管理的导入功能是什么样的格式啊,支持cpa或者sub2api导入吗
--【叁】--:
你可能看错了,没有测活的功能,是可用模型列表拉取。上游请求已经参考codex源码进行优化
--【肆】--:
使用codex客户端网页授权后,然后获取授权文件中的Refresh Token导入

