【开源】Unify Chat Provider —— 为 Github Copilot 接入自定义模型的 VS Code 扩展

2026-04-11 08:261阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

前言

折叠内容

Github Copilot 更新至今,可用性已经有所提高,能够满足大部分日常需求。

它的优势是价格便宜(10$ 或学生包)、按请求计费、上新模型的速度第一梯队、比较稳定。

我一般配合站内 Claude Code / CodeX 的中转站一起使用,是作为备用项的一个非常好的选择。

但是众所周知的缺点是它内置模型的上下文给的是模型自身上限的一半,并且经过实测模型的参数也没有拉满,比如 GPT 5.2 实测 Juice 值是 64,也就是只有 Medium。

CleanShot 2025-12-31 at 09.49.241964×916 49.8 KB

在最近的一个版本它开放了 Language Model API 接口,使得现在可以无缝地接入自定义模型。

自定义模型没有上下文限制,模型参数也可以随意调整,性能提升非常大(缺点是需自带 Key)。

而 Copilot 现在的用户体验我认为是比其它很多插件、命令行要更好的(仅次于 Cursor);至于实际效果则是在极大型需求上比不上 Claude Code 做得好、做得快,但除此之外都是不错的。

由于能够非常方便地添加自定义模型,我也将其作为新模型上线后进行快速测试的工具。

优势

在我开发这个扩展之前已经有好几个扩展(GCMP、Addi…)实现了同样的功能。

但我仍然花时间开发这个扩展的原因有三点:

  1. 用户体验(UX)
  2. 无法发挥出模型的最佳性能
  3. API 兼容性

为什么无法发挥出模型的最佳性能?

当实际接入过 API 就会发现这件事没有那么简单。

如果你对 AI 直接下令,它可能在几分钟就能写好能够正常对话的版本。

但是也仅此而已,紧接着你可能会发现模型没有思考,或者根本没有触发输入缓存,导致效果欠佳,并且成本陡增。

阅读全文
问题描述:

前言

折叠内容

Github Copilot 更新至今,可用性已经有所提高,能够满足大部分日常需求。

它的优势是价格便宜(10$ 或学生包)、按请求计费、上新模型的速度第一梯队、比较稳定。

我一般配合站内 Claude Code / CodeX 的中转站一起使用,是作为备用项的一个非常好的选择。

但是众所周知的缺点是它内置模型的上下文给的是模型自身上限的一半,并且经过实测模型的参数也没有拉满,比如 GPT 5.2 实测 Juice 值是 64,也就是只有 Medium。

CleanShot 2025-12-31 at 09.49.241964×916 49.8 KB

在最近的一个版本它开放了 Language Model API 接口,使得现在可以无缝地接入自定义模型。

自定义模型没有上下文限制,模型参数也可以随意调整,性能提升非常大(缺点是需自带 Key)。

而 Copilot 现在的用户体验我认为是比其它很多插件、命令行要更好的(仅次于 Cursor);至于实际效果则是在极大型需求上比不上 Claude Code 做得好、做得快,但除此之外都是不错的。

由于能够非常方便地添加自定义模型,我也将其作为新模型上线后进行快速测试的工具。

优势

在我开发这个扩展之前已经有好几个扩展(GCMP、Addi…)实现了同样的功能。

但我仍然花时间开发这个扩展的原因有三点:

  1. 用户体验(UX)
  2. 无法发挥出模型的最佳性能
  3. API 兼容性

为什么无法发挥出模型的最佳性能?

当实际接入过 API 就会发现这件事没有那么简单。

如果你对 AI 直接下令,它可能在几分钟就能写好能够正常对话的版本。

但是也仅此而已,紧接着你可能会发现模型没有思考,或者根本没有触发输入缓存,导致效果欠佳,并且成本陡增。

阅读全文