【开源自荐】轻量级Codex客户端 API 网关

2026-04-29 09:362阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

  • 我的帖子已经打上 开源推广 标签:
  • 我的开源项目完整开源,无未开源部分:
  • 我的开源项目已链接认可 LINUX DO 社区:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


本项目是一个兼容 OpenAI 接口规范的轻量级 API 网关。自带了开箱即用的现代化 Web 管理面板,方便管理模型账号、系统动态配置以及监控请求运行状态。

比较适合个人搭建中转站,项目地址:GitHub - naka1205/codex-api: OpenAI API gateway for Codex · GitHub

项目截图:
Dashboard3388×1958 298 KB
Accounts3400×1954 428 KB
Models3388×1958 327 KB
Logs1920×1103 108 KB
Settings3388×1958 444 KB
Cherry Studio21148×858 74.5 KB
Codex1309×941 171 KB

配置参考:

config.toml

model = "gpt-5.5" model_provider = "nkkcc" model_reasoning_effort = "xhigh" disable_response_storage = true [model_providers.nkkcc] name = "nkkcc" base_url = "https://codex.nkkcc.com/v1"

auth.json

{ "OPENAI_API_KEY": "sk-AIzaSyCs2XSaLDUSXrGV_hUtGkdsAzR4DpCDBmk" }

以上测试站点挂了一个车队,可以轻度测试(不要干坏事)。

另外本人还开发两套不同的 API 网关:
1.支持多渠道以及多客户端协议
上游渠道:codex、antigravity、gemini、kiro、grok
客户端协议:OpenAI, Gemini, Claude
2.在原有基础上重构,裂变出客户端协议互通,支持claude code客户端调用 gemini

截屏2026-04-26 00.58.073400×1954 434 KB

网友解答:
--【壹】--:

已经 star 了 这下舒服了 chat 和 res 是自动转换吗 我看你有模型测活 上游限制客户端怎么办


--【贰】--:

账号管理的导入功能是什么样的格式啊,支持cpa或者sub2api导入吗


--【叁】--:

你可能看错了,没有测活的功能,是可用模型列表拉取。上游请求已经参考codex源码进行优化


--【肆】--:

使用codex客户端网页授权后,然后获取授权文件中的Refresh Token导入

问题描述:

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:

  • 我的帖子已经打上 开源推广 标签:
  • 我的开源项目完整开源,无未开源部分:
  • 我的开源项目已链接认可 LINUX DO 社区:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


本项目是一个兼容 OpenAI 接口规范的轻量级 API 网关。自带了开箱即用的现代化 Web 管理面板,方便管理模型账号、系统动态配置以及监控请求运行状态。

比较适合个人搭建中转站,项目地址:GitHub - naka1205/codex-api: OpenAI API gateway for Codex · GitHub

项目截图:
Dashboard3388×1958 298 KB
Accounts3400×1954 428 KB
Models3388×1958 327 KB
Logs1920×1103 108 KB
Settings3388×1958 444 KB
Cherry Studio21148×858 74.5 KB
Codex1309×941 171 KB

配置参考:

config.toml

model = "gpt-5.5" model_provider = "nkkcc" model_reasoning_effort = "xhigh" disable_response_storage = true [model_providers.nkkcc] name = "nkkcc" base_url = "https://codex.nkkcc.com/v1"

auth.json

{ "OPENAI_API_KEY": "sk-AIzaSyCs2XSaLDUSXrGV_hUtGkdsAzR4DpCDBmk" }

以上测试站点挂了一个车队,可以轻度测试(不要干坏事)。

另外本人还开发两套不同的 API 网关:
1.支持多渠道以及多客户端协议
上游渠道:codex、antigravity、gemini、kiro、grok
客户端协议:OpenAI, Gemini, Claude
2.在原有基础上重构,裂变出客户端协议互通,支持claude code客户端调用 gemini

截屏2026-04-26 00.58.073400×1954 434 KB

网友解答:
--【壹】--:

已经 star 了 这下舒服了 chat 和 res 是自动转换吗 我看你有模型测活 上游限制客户端怎么办


--【贰】--:

账号管理的导入功能是什么样的格式啊,支持cpa或者sub2api导入吗


--【叁】--:

你可能看错了,没有测活的功能,是可用模型列表拉取。上游请求已经参考codex源码进行优化


--【肆】--:

使用codex客户端网页授权后,然后获取授权文件中的Refresh Token导入