VSCode insider + Copilot BYOK + CLIProxyAPI 超低资源占用爽用Codex
- 内容介绍
- 文章标签
- 相关推荐
RT,Codex随着不断优化,在VSCode中交互的确越来越好,甚至给Copilot都慢慢有点向Codex的交互靠拢,但是OpenAI家的工具啥都好,就是资源占用太高了,Codex打开一个会话,不管聊不聊,分分钟占满一个内核,而且根本不带释放,加上权限要么默认,要么给全部权限,前者动不动就弹窗要权限,打断工作流,后者看到各位佬的删库消息心惊胆战,都不敢用,找了一圈佬们用的方案,大部分是反代出来给CC用,但说实话,作为GUI党,CC的VS扩展也就那样了,感觉还不如Codex,转来转去终于找到了一个好用的方案,那就是安装 VSCode insider, 然后配置 Copilot的 BYOK,搭配CPA来反代GPT,好处有三:
- Copilot 在VSCode 是一等公民,交互最棒
- Copilot 资源占用极低,开几个窗口,CPU占用还么有一个Codex高,而且不工作就不占CPU
- Copilot 自带 Auto pilot 权限模式,这个和CC的auto mode 一样,但是比 auto mode 更开放,对 BYOK的模型也都支持
食用方法:
-
安装 VSCode insider
-
启用Copilot, Free账号就行, 随便找个 github 账号就行
-
Copilot 的模型对话框中点齿轮
image225×162 4.27 KB -
点Add models, 然后选择 OpenAI Compatible
image228×465 5.95 KB -
随便取个名字,比如我叫 CPA
- 输入CPA的apikey
7, 然后会打开一个 chatLanguageModels.json 的配置框,按照下面的配置
[
{
"name": "CPA",
"vendor": "customoai",
"apiKey": "${input:chat.lm.secret.-226d5797}",
"models": [
{
"id": "gpt-5.4(xhigh)",
"name": "GPT-5.4 (X-High)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
},
{
"id": "gpt-5.4(high)",
"name": "GPT-5.4 (High)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
},
{
"id": "gpt-5.4(medium)",
"name": "GPT-5.4 (Medium)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
},
{
"id": "gpt-5.4(low)",
"name": "GPT-5.4 (Low)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
}
]
}
]
保存,然后爽用
开启Autopilot的方法是选择 模型下方的权限框,选择Auto pillot 即可
image237×168 3.8 KB
网友解答:--【壹】--:
普通版本我看昨天更新说企业版和商业版是支持BYOK的,4.22那个版本
--【贰】--: puppywang:
http://你的CPAIP:8317/v1
直接这样使用ip+端口的形式,不担心ip会被墙吗?
--【叁】--: puppywang:
VSCode insider
应该是只有insider版本才能自定义api,普通版只能用官转api。vscode也有内置的codex,直接用就行了,可以接第三方的api,甚至配置文件和cli是通用的。
--【肆】--:
我第一天切到insider,目前看上去内存还行,暂时没有OOM的情况
--【伍】--:
insider的copilot chat貌似有部分用户会遇到问题
我这就是, 天天oom
最新的commit还在引相关的issues
--【陆】--:
支持,佬,明天到公司试试能不能爽用
--【柒】--:
没试过vscode里面的codex占不占资源,但openai那个codex是真的写了一个 while (1) {} 吧 /(ㄒoㄒ)/~~
RT,Codex随着不断优化,在VSCode中交互的确越来越好,甚至给Copilot都慢慢有点向Codex的交互靠拢,但是OpenAI家的工具啥都好,就是资源占用太高了,Codex打开一个会话,不管聊不聊,分分钟占满一个内核,而且根本不带释放,加上权限要么默认,要么给全部权限,前者动不动就弹窗要权限,打断工作流,后者看到各位佬的删库消息心惊胆战,都不敢用,找了一圈佬们用的方案,大部分是反代出来给CC用,但说实话,作为GUI党,CC的VS扩展也就那样了,感觉还不如Codex,转来转去终于找到了一个好用的方案,那就是安装 VSCode insider, 然后配置 Copilot的 BYOK,搭配CPA来反代GPT,好处有三:
- Copilot 在VSCode 是一等公民,交互最棒
- Copilot 资源占用极低,开几个窗口,CPU占用还么有一个Codex高,而且不工作就不占CPU
- Copilot 自带 Auto pilot 权限模式,这个和CC的auto mode 一样,但是比 auto mode 更开放,对 BYOK的模型也都支持
食用方法:
-
安装 VSCode insider
-
启用Copilot, Free账号就行, 随便找个 github 账号就行
-
Copilot 的模型对话框中点齿轮
image225×162 4.27 KB -
点Add models, 然后选择 OpenAI Compatible
image228×465 5.95 KB -
随便取个名字,比如我叫 CPA
- 输入CPA的apikey
7, 然后会打开一个 chatLanguageModels.json 的配置框,按照下面的配置
[
{
"name": "CPA",
"vendor": "customoai",
"apiKey": "${input:chat.lm.secret.-226d5797}",
"models": [
{
"id": "gpt-5.4(xhigh)",
"name": "GPT-5.4 (X-High)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
},
{
"id": "gpt-5.4(high)",
"name": "GPT-5.4 (High)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
},
{
"id": "gpt-5.4(medium)",
"name": "GPT-5.4 (Medium)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
},
{
"id": "gpt-5.4(low)",
"name": "GPT-5.4 (Low)",
"url": "http://你的CPAIP:8317/v1",
"toolCalling": true,
"vision": true,
"maxInputTokens": 400000,
"maxOutputTokens": 128000
}
]
}
]
保存,然后爽用
开启Autopilot的方法是选择 模型下方的权限框,选择Auto pillot 即可
image237×168 3.8 KB
网友解答:--【壹】--:
普通版本我看昨天更新说企业版和商业版是支持BYOK的,4.22那个版本
--【贰】--: puppywang:
http://你的CPAIP:8317/v1
直接这样使用ip+端口的形式,不担心ip会被墙吗?
--【叁】--: puppywang:
VSCode insider
应该是只有insider版本才能自定义api,普通版只能用官转api。vscode也有内置的codex,直接用就行了,可以接第三方的api,甚至配置文件和cli是通用的。
--【肆】--:
我第一天切到insider,目前看上去内存还行,暂时没有OOM的情况
--【伍】--:
insider的copilot chat貌似有部分用户会遇到问题
我这就是, 天天oom
最新的commit还在引相关的issues
--【陆】--:
支持,佬,明天到公司试试能不能爽用
--【柒】--:
没试过vscode里面的codex占不占资源,但openai那个codex是真的写了一个 while (1) {} 吧 /(ㄒoㄒ)/~~

