「开源自荐」GitCortex-让AI coding效率翻5倍神器-抢发智谱Z code未来核心功能

2026-04-11 08:191阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

【开发初衷】 在持续的AI coding过程中,总有一些问题是到现在都没有解决的,比如无法在同一个AI CLI里面使用不同提供商的不同的模型等问题,虽然站内很多大佬开发了mcp,skill等方式实现多AI CLI协同工作,但是仍存在诸多限制,并且无法做到持续性兼容,调用其他的工作流插件,所以我就想能不能来开发这样的一个新项目。一个总Agent调度多个CLI协作完成复杂任务,它既能够让同一个终端使用不同提供商的不同模型,又能够协同其他的AI终端协作,不仅支持多任务,同时也要能够支持各个终端的插件,确保不论是终端更新还是插件更新,它都能够持续性地起作用,那么,经过一个月的艰苦开发,就在今天GitCortex正式开源!
(注:为了抢发大厂,只完成了最小MVP,欢迎各位佬共建项目,也求一求star )

项目地址: huanchong-99/GitCortex

与论坛风佬、孙佬的ccg方案最主要的区别是 GitCortex 是一个上层调度Agent调度多个专业CLI进行开发的项目,他的重点不是不同的CLI协作,重点是上层调度 Agent 全自动指挥全部的专业CLI进行开发,看标题,5倍效率并非标题党,项目支持多任务并行,也就是一个上层调度 Agent 可以同时指挥5-10个任务并行开发,任务自身是串行,多个终端依次进行开发,通过git来提交状态,这样的效率就是5-10倍的。如果不理解这段话可以去看架构图,或者再等等,我出新帖子(含视频讲解)。而且因为GitCortex调用的是原生终端,所以不仅仅支持官方/命令,也支持全部的自定义/命令,也就是说对未来的插件系统是无限兼容的,举例,你从 cc-sdd 开发工作流转向 superpower 开发工作流,本项目无限兼容,你只需要把新插件的自定义/命令写入系统,就可以无缝使用,同时兼容skill和mcp,因为调用的原生终端,只要是原生终端支持的,这里全部都支持。而且后续接入聊天机器人,和openclaw一样,你就可以仅通过对话完成复杂项目的开发,这里并非去开发玩具,而是真正的可以使用你预设好的AI工作流,多终端协作,超长时间全自动开发复杂项目

项目的技术栈

后端

  • 语言与运行时:Rust + Tokio

  • Web 框架:Axum(REST + WebSocket)

  • 数据层:SQLx + SQLite

  • 工程结构:Rust Workspace(crates/servercrates/servicescrates/dbcrates/cc-switch 等)

前端

  • 框架:React 18 + TypeScript

  • 构建工具:Vite

  • 状态与数据:TanStack Query + WebSocket Store

  • 终端渲染:xterm.js(终端调试与输出展示)

协作运行时组件(核心)

  • OrchestratorRuntime:统一调度 workflow 生命周期

  • OrchestratorAgent:执行编排决策与状态推进

  • MessageBus:跨终端/跨模块事件总线

  • TerminalCoordinator:终端准备与串行推进协调

  • TerminalLauncher:终端进程启动与生命周期管理

  • GitWatcher:监听 Git 提交并触发事件

  • CCSwitchService:CLI/模型配置切换与隔离

以上组件对应源码可在 crates/services/src/services/crates/server/src/routes/ 中找到。

项目主要功能简单介绍

  1. 主 Agent 协调多AI CLI协同工作
  2. cc-switch 集成,只需简单配置即可直接使用
  3. 基于 Git 提交的事件驱动模式,节省 Token 消耗
  4. 斜杠命令系统不仅仅让你可以使用官方的命令,还支持你自己安装的各种插件,例如superpower工作流,这意味着无论未来如何发展,只要斜杠命令还存在,你换任何一种插件,都可以无缝的集成进来,成功摆脱掉新内容就一两个月可以用,再出新东西当前的就直接落后,本项目通过斜杠命令系统持续性兼容未来全部插件,只要他在原生终端可用并且自定义了斜杠命令,那就兼容
  5. 多任务并行任务内串行,这个才是让AI coding效率翻5倍的绝对核心,和vibe-kanban的主要区别就是多了主 Agent 协调和支持多AI CLI
  6. 类似于 openclaw 接入通讯软件,只要在前期做好配置,后续只需要通过聊天对话即可完成复杂项目的完整开发,不是简单的写玩具,而是真正完成全流程全自动的项目开发
  7. 已经实现了网页上的伪终端,在网页即可真实调试终端

架构概览

image784×646 24.5 KB

阅读下文前请务必点开看一下(含抢发智谱产品线的具体解释)

项目没有直接做到让同一个终端使用不同提供商的不同模型,但是通过另一种取巧的方式,让多个终端比如两个Claude code终端分别使用GLM-4.7和Claude opus4.6共同协作到一起了。

因为在开发的过程中,发现智谱和我在相同方向上做同一件事情,同时原本承诺的1月开源已经到2月了,所以决定完成最小MVP就立刻开源,不鸽了,同时抢发智谱一手,让他天天限速降智(包年MAX的怨念 )

不是我意淫嗷,他自己的官方小助手在1月26日发出来的,你看他的未来方向不就是本项目吗?咱不吃他的饼,项目现在就开源hhhh

喜欢降智降权益,抢发你产品线看你难受不难受

项目立项时间比他早10天,不是恶意狙击哦
image2526×995 173 KB

真的,他不主动发,我都不知道原来Z code这个产品线是做这个的,我还以为他真的是去做多CLI的桌面版呢,不过既然知道了,正好还撞上了,必须抢发,让你降智,让你超售
9abe075c5ed1d9886e58c627cdc0b7a91260×1221 146 KB

261d24d694f969fc00fe82e25df509211498×470 89.7 KB

项目地址: huanchong-99/GitCortex

开始前致谢Vibe-Kanban 和 CC-Switch 项目以这两个项目为基座完成的开发
本项目遵循上游项目的开源协议:

  • Vibe Kanban 部分:Apache License 2.0
  • CC-Switch 部分:MIT License

详见 LICENSE 文件。

最小MVP已完成的功能开发和未完成的功能开发

已完成的开发:
已实现主Agent调用多个AI CLI;测试时使用两个Claude code和一个codex进行测试,Claude code分别调用GLM-4.7和Claude opus4.6,codex调用的是gpt-5.3-codex-xhigh

未完成的开发:
1.多任务并行未测试
2.终端数量极限未测试(支持自定义数量)
3.前端UI不合理未修复
4.合并终端和错误解决终端未测试
5.任务完成通知未开发
6.集成通讯软件未开发
8.斜杠命令系统未测试(大概率不可用,可以自行尝试)
9.docker部署未开发(开放文档已写,可以去docx文件夹找到)

我测试使用的任务是“本地迷你留言板分为前端与后端,开发一个运行在本地的网页应用,用户可以在网页输入一段文字,点击保存,文字被保存到本地的一个.json文件中,并在下方列表中实时显示出来。后端使用Python,前端使用单html文件.”

一个相当简单的任务,为了证明跑通流程了,复杂任务未测试,讲真的,一堆东西没开发,一堆任务稳定性没有完成测试,但凡不是为了抢发智谱,我肯定再隔几个月完善好再发,那么在这里就诚邀各位佬来一起共建,提一提PR

项目的100%代码全部由AI构成,你放心AI coding,本项目不讲究代码洁癖,能跑能用就是好代码! 放心提PR(建议各位佬提PR前先去提交一个issues,说某个功能已在开放中,避免多个佬开发同一个功能做无用功)

项目的所有代码由AI完成,记录一下消耗(放心AI coding提PR,没有任何代码洁癖) ChatGPT

image2094×763 114 KB

Claude opus4.5/4.6

image1440×900 53.4 KB

GLM

image1651×588 24.4 KB

「视频展示」(我起床补录,现在半夜2点了)

「功能图片展示」
297461f50a0fb35e20529a02509a8a212549×1364 152 KB

db41348f09aa74f5e46211cdea8c712d2549×1369 79.7 KB

028d9d864878063704e93988de1fda2f2549×1361 90.1 KB

4c1c8e365ec3bf5674a2f7e113d890a82549×1368 98.2 KB

1082f008bbe5abfa92cddd0547cf914c2549×1373 172 KB

dc1df66a9b1d4a440cc3ce3fdb186baf2549×1373 166 KB

ea3490818c65289e551890905d0464152549×1369 100 KB

c156636ddd49c69a3ad01a1c1751360a2549×1365 199 KB

6f9dc236e02eb46e1968d6dfec2a2aa02549×1367 206 KB

a8ee2f3ace79505b481e20025e0691972549×1368 123 KB

5bf3db90dec896fa599040d1151693e02549×1363 137 KB

8d3d58939f103ca97193bef43c2248c52549×1357 135 KB

36cdaba47e656968d4076ec27c5101672549×1359 124 KB

b9e55131502d2e3b319b902bf6a4760e2549×1357 128 KB

b9b413612f55331a6fb129b3402a11c02549×1374 132 KB

35d386f98bffc178c6ce9adc16e2b5112549×1355 145 KB

21703188a936efff0b403ed7e0e8700b2549×1254 118 KB

afd6ad6b35621f3b15f28625789d462b2549×1361 182 KB

175ca7d1310fb33a8f0b1a9d2ea52a6a2549×1364 100 KB

899076ffe8e86627b5b188e5d49cbee12549×1254 121 KB

2db4af60cda32b7bcc190b157a4f78ec2549×1360 153 KB

27e598ff6d38e4a37199e090f4fa9da92549×1371 139 KB

0be13bd08dc3700c75f436add44229e12549×1364 103 KB

6deb9a2cc46b73451e3b87c3cfd9fdf72549×1357 103 KB

a62e29d3c68b99c40ea1a60b4da1a09c2549×1364 226 KB

a4467b31de3396d18359e0c913c9aa922549×1355 172 KB

764c2c5c5b58ee48dcdbd6533502cf452549×1359 200 KB

9f38f84be1b38e2c7598ba23f13efecb2549×1360 164 KB

23b53d08995f39f21b30d585ce7715932549×1368 108 KB

网友解答:
--【壹】--:

感谢分享


--【贰】--:

前排支持,太牛了,先star等迭代几次。


--【叁】--:

哇喔,感谢佬,一大早就收到好消息


--【肆】--:

前排支持!太强了


--【伍】--:

支持,前面预告这么久终于出来了


--【陆】--:

嘻,是我最喜欢的工作流呀


--【柒】--:

感谢分享


--【捌】--:

感谢佬友的分享


--【玖】--:

感谢大佬哦


--【拾】--:

过会试试


--【拾壹】--:

数了下65亿token,话说现在能接入tg吗这样我同时用claw不是美哉


--【拾贰】--:

必须狠狠的期待。


--【拾叁】--:

接,都接,但是现在是最小mvp状态,大部分核心内容没跑通只有个框架,后续慢慢加 先把核心都搞好了,再往上慢慢堆


--【拾肆】--:

感谢大佬,有时间要试试


--【拾伍】--:

太强了佬,支持


--【拾陆】--:

感谢大佬的分享 支持一下


--【拾柒】--:

支持一下


--【拾捌】--:

感谢分享,小白问一下如果是模型输出一个让你决策,是不是要另外一个agent介入回答呢


--【拾玖】--:

太强了,大佬

问题描述:

【开发初衷】 在持续的AI coding过程中,总有一些问题是到现在都没有解决的,比如无法在同一个AI CLI里面使用不同提供商的不同的模型等问题,虽然站内很多大佬开发了mcp,skill等方式实现多AI CLI协同工作,但是仍存在诸多限制,并且无法做到持续性兼容,调用其他的工作流插件,所以我就想能不能来开发这样的一个新项目。一个总Agent调度多个CLI协作完成复杂任务,它既能够让同一个终端使用不同提供商的不同模型,又能够协同其他的AI终端协作,不仅支持多任务,同时也要能够支持各个终端的插件,确保不论是终端更新还是插件更新,它都能够持续性地起作用,那么,经过一个月的艰苦开发,就在今天GitCortex正式开源!
(注:为了抢发大厂,只完成了最小MVP,欢迎各位佬共建项目,也求一求star )

项目地址: huanchong-99/GitCortex

与论坛风佬、孙佬的ccg方案最主要的区别是 GitCortex 是一个上层调度Agent调度多个专业CLI进行开发的项目,他的重点不是不同的CLI协作,重点是上层调度 Agent 全自动指挥全部的专业CLI进行开发,看标题,5倍效率并非标题党,项目支持多任务并行,也就是一个上层调度 Agent 可以同时指挥5-10个任务并行开发,任务自身是串行,多个终端依次进行开发,通过git来提交状态,这样的效率就是5-10倍的。如果不理解这段话可以去看架构图,或者再等等,我出新帖子(含视频讲解)。而且因为GitCortex调用的是原生终端,所以不仅仅支持官方/命令,也支持全部的自定义/命令,也就是说对未来的插件系统是无限兼容的,举例,你从 cc-sdd 开发工作流转向 superpower 开发工作流,本项目无限兼容,你只需要把新插件的自定义/命令写入系统,就可以无缝使用,同时兼容skill和mcp,因为调用的原生终端,只要是原生终端支持的,这里全部都支持。而且后续接入聊天机器人,和openclaw一样,你就可以仅通过对话完成复杂项目的开发,这里并非去开发玩具,而是真正的可以使用你预设好的AI工作流,多终端协作,超长时间全自动开发复杂项目

项目的技术栈

后端

  • 语言与运行时:Rust + Tokio

  • Web 框架:Axum(REST + WebSocket)

  • 数据层:SQLx + SQLite

  • 工程结构:Rust Workspace(crates/servercrates/servicescrates/dbcrates/cc-switch 等)

前端

  • 框架:React 18 + TypeScript

  • 构建工具:Vite

  • 状态与数据:TanStack Query + WebSocket Store

  • 终端渲染:xterm.js(终端调试与输出展示)

协作运行时组件(核心)

  • OrchestratorRuntime:统一调度 workflow 生命周期

  • OrchestratorAgent:执行编排决策与状态推进

  • MessageBus:跨终端/跨模块事件总线

  • TerminalCoordinator:终端准备与串行推进协调

  • TerminalLauncher:终端进程启动与生命周期管理

  • GitWatcher:监听 Git 提交并触发事件

  • CCSwitchService:CLI/模型配置切换与隔离

以上组件对应源码可在 crates/services/src/services/crates/server/src/routes/ 中找到。

项目主要功能简单介绍

  1. 主 Agent 协调多AI CLI协同工作
  2. cc-switch 集成,只需简单配置即可直接使用
  3. 基于 Git 提交的事件驱动模式,节省 Token 消耗
  4. 斜杠命令系统不仅仅让你可以使用官方的命令,还支持你自己安装的各种插件,例如superpower工作流,这意味着无论未来如何发展,只要斜杠命令还存在,你换任何一种插件,都可以无缝的集成进来,成功摆脱掉新内容就一两个月可以用,再出新东西当前的就直接落后,本项目通过斜杠命令系统持续性兼容未来全部插件,只要他在原生终端可用并且自定义了斜杠命令,那就兼容
  5. 多任务并行任务内串行,这个才是让AI coding效率翻5倍的绝对核心,和vibe-kanban的主要区别就是多了主 Agent 协调和支持多AI CLI
  6. 类似于 openclaw 接入通讯软件,只要在前期做好配置,后续只需要通过聊天对话即可完成复杂项目的完整开发,不是简单的写玩具,而是真正完成全流程全自动的项目开发
  7. 已经实现了网页上的伪终端,在网页即可真实调试终端

架构概览

image784×646 24.5 KB

阅读下文前请务必点开看一下(含抢发智谱产品线的具体解释)

项目没有直接做到让同一个终端使用不同提供商的不同模型,但是通过另一种取巧的方式,让多个终端比如两个Claude code终端分别使用GLM-4.7和Claude opus4.6共同协作到一起了。

因为在开发的过程中,发现智谱和我在相同方向上做同一件事情,同时原本承诺的1月开源已经到2月了,所以决定完成最小MVP就立刻开源,不鸽了,同时抢发智谱一手,让他天天限速降智(包年MAX的怨念 )

不是我意淫嗷,他自己的官方小助手在1月26日发出来的,你看他的未来方向不就是本项目吗?咱不吃他的饼,项目现在就开源hhhh

喜欢降智降权益,抢发你产品线看你难受不难受

项目立项时间比他早10天,不是恶意狙击哦
image2526×995 173 KB

真的,他不主动发,我都不知道原来Z code这个产品线是做这个的,我还以为他真的是去做多CLI的桌面版呢,不过既然知道了,正好还撞上了,必须抢发,让你降智,让你超售
9abe075c5ed1d9886e58c627cdc0b7a91260×1221 146 KB

261d24d694f969fc00fe82e25df509211498×470 89.7 KB

项目地址: huanchong-99/GitCortex

开始前致谢Vibe-Kanban 和 CC-Switch 项目以这两个项目为基座完成的开发
本项目遵循上游项目的开源协议:

  • Vibe Kanban 部分:Apache License 2.0
  • CC-Switch 部分:MIT License

详见 LICENSE 文件。

最小MVP已完成的功能开发和未完成的功能开发

已完成的开发:
已实现主Agent调用多个AI CLI;测试时使用两个Claude code和一个codex进行测试,Claude code分别调用GLM-4.7和Claude opus4.6,codex调用的是gpt-5.3-codex-xhigh

未完成的开发:
1.多任务并行未测试
2.终端数量极限未测试(支持自定义数量)
3.前端UI不合理未修复
4.合并终端和错误解决终端未测试
5.任务完成通知未开发
6.集成通讯软件未开发
8.斜杠命令系统未测试(大概率不可用,可以自行尝试)
9.docker部署未开发(开放文档已写,可以去docx文件夹找到)

我测试使用的任务是“本地迷你留言板分为前端与后端,开发一个运行在本地的网页应用,用户可以在网页输入一段文字,点击保存,文字被保存到本地的一个.json文件中,并在下方列表中实时显示出来。后端使用Python,前端使用单html文件.”

一个相当简单的任务,为了证明跑通流程了,复杂任务未测试,讲真的,一堆东西没开发,一堆任务稳定性没有完成测试,但凡不是为了抢发智谱,我肯定再隔几个月完善好再发,那么在这里就诚邀各位佬来一起共建,提一提PR

项目的100%代码全部由AI构成,你放心AI coding,本项目不讲究代码洁癖,能跑能用就是好代码! 放心提PR(建议各位佬提PR前先去提交一个issues,说某个功能已在开放中,避免多个佬开发同一个功能做无用功)

项目的所有代码由AI完成,记录一下消耗(放心AI coding提PR,没有任何代码洁癖) ChatGPT

image2094×763 114 KB

Claude opus4.5/4.6

image1440×900 53.4 KB

GLM

image1651×588 24.4 KB

「视频展示」(我起床补录,现在半夜2点了)

「功能图片展示」
297461f50a0fb35e20529a02509a8a212549×1364 152 KB

db41348f09aa74f5e46211cdea8c712d2549×1369 79.7 KB

028d9d864878063704e93988de1fda2f2549×1361 90.1 KB

4c1c8e365ec3bf5674a2f7e113d890a82549×1368 98.2 KB

1082f008bbe5abfa92cddd0547cf914c2549×1373 172 KB

dc1df66a9b1d4a440cc3ce3fdb186baf2549×1373 166 KB

ea3490818c65289e551890905d0464152549×1369 100 KB

c156636ddd49c69a3ad01a1c1751360a2549×1365 199 KB

6f9dc236e02eb46e1968d6dfec2a2aa02549×1367 206 KB

a8ee2f3ace79505b481e20025e0691972549×1368 123 KB

5bf3db90dec896fa599040d1151693e02549×1363 137 KB

8d3d58939f103ca97193bef43c2248c52549×1357 135 KB

36cdaba47e656968d4076ec27c5101672549×1359 124 KB

b9e55131502d2e3b319b902bf6a4760e2549×1357 128 KB

b9b413612f55331a6fb129b3402a11c02549×1374 132 KB

35d386f98bffc178c6ce9adc16e2b5112549×1355 145 KB

21703188a936efff0b403ed7e0e8700b2549×1254 118 KB

afd6ad6b35621f3b15f28625789d462b2549×1361 182 KB

175ca7d1310fb33a8f0b1a9d2ea52a6a2549×1364 100 KB

899076ffe8e86627b5b188e5d49cbee12549×1254 121 KB

2db4af60cda32b7bcc190b157a4f78ec2549×1360 153 KB

27e598ff6d38e4a37199e090f4fa9da92549×1371 139 KB

0be13bd08dc3700c75f436add44229e12549×1364 103 KB

6deb9a2cc46b73451e3b87c3cfd9fdf72549×1357 103 KB

a62e29d3c68b99c40ea1a60b4da1a09c2549×1364 226 KB

a4467b31de3396d18359e0c913c9aa922549×1355 172 KB

764c2c5c5b58ee48dcdbd6533502cf452549×1359 200 KB

9f38f84be1b38e2c7598ba23f13efecb2549×1360 164 KB

23b53d08995f39f21b30d585ce7715932549×1368 108 KB

网友解答:
--【壹】--:

感谢分享


--【贰】--:

前排支持,太牛了,先star等迭代几次。


--【叁】--:

哇喔,感谢佬,一大早就收到好消息


--【肆】--:

前排支持!太强了


--【伍】--:

支持,前面预告这么久终于出来了


--【陆】--:

嘻,是我最喜欢的工作流呀


--【柒】--:

感谢分享


--【捌】--:

感谢佬友的分享


--【玖】--:

感谢大佬哦


--【拾】--:

过会试试


--【拾壹】--:

数了下65亿token,话说现在能接入tg吗这样我同时用claw不是美哉


--【拾贰】--:

必须狠狠的期待。


--【拾叁】--:

接,都接,但是现在是最小mvp状态,大部分核心内容没跑通只有个框架,后续慢慢加 先把核心都搞好了,再往上慢慢堆


--【拾肆】--:

感谢大佬,有时间要试试


--【拾伍】--:

太强了佬,支持


--【拾陆】--:

感谢大佬的分享 支持一下


--【拾柒】--:

支持一下


--【拾捌】--:

感谢分享,小白问一下如果是模型输出一个让你决策,是不是要另外一个agent介入回答呢


--【拾玖】--:

太强了,大佬