CC GUI配合ollama cloud+glm5.1逆向太爽了

2026-04-29 09:065阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

如下图所示是我在做的一个ios游戏逆向,我使用的是论坛里佬友的ccgui项目(https://linux.do/t/topic/1959236/463)ollama cloud pro订阅(20刀每月)+glm5.1,也使用过kimi k2.6 目前进行逆向来说没有任何反驳没有任何拒绝的行为极为丝滑流畅,不要进行任何配置就可以,但是如果单独使用cc cli的话却会发生拒绝的情况,不太理解ccgui佬友施展了什么魔法还是ollama 的模型有其他情况,总之是非常的爽,蹬起来吧,在等DeepSeek v4pro上架 。哦对了 目前我的使用强度来说根本用不完感觉比各个国内的plan合适很多,欢迎佬友们分享实测,新人发帖希望多多点赞谢谢各位佬,我想升三。
image1720×1345 323 KB
image930×1271 180 KB
image1186×1133 67.7 KB
image840×359 19.5 KB

网友解答:
--【壹】--:

有具体操作吗?只是简单介绍了一下。怎么用呢


--【贰】--:

估计是没用过好货 哈哈哈哈 凑合用吧 至少不会想智普plan特么不给用耍猴


--【叁】--:

ollama cloud 慢的发昏,你也能用下去


--【肆】--:

嗯是的本身是一个用来部署本地模型的工具,然后ollama出了cloud平台就是用他们的gpu跑模型然后你在本地调用


--【伍】--:

ollama? 自己部署模型?是这个意思吗?


--【陆】--:

ccswitch 配置如图我也搞了好久才用上
image1000×1301 92.3 KB


--【柒】--:

???我用的是假的?glm从来没429过,就算是高峰期


--【捌】--:

没有提示词,就不用惯着,开局就说我要逆向什么app什么软件,他就嗷嗷开始干了


--【玖】--:

image921×1204 100 KB
官方有模型可以部署,也可以自己上传自己的模型部署但我试过


--【拾】--:

ollama cloude的glm 5.1和kimi 2.6经常请求失败,连deepsekk v4都有概率失败,我都想换平台了


--【拾壹】--:

可以,建议你去看看有老的ccgui项目,他其实本身就是调用的你本地的claudecode cli,在他的基础上做了UI,核心是一样的,其他改动未知


--【拾贰】--:

多多了 哈哈哈 opencodego套餐量太少了


--【拾叁】--: xiaoguiwucan:

强度来说根本用不完感觉比各个国内的plan合适很多

ollama这个比opencodego订阅还多吗


--【拾肆】--:

ollama是一个平台嘛?最近glm用的确实很爽。需要


--【拾伍】--:

怎么逆向的?求个提示词啊,楼主分享一下经验把


--【拾陆】--:

这个桌面端可以用 gpt5.5 吗?cc 逆向额度比喝水还快


--【拾柒】--:

这应该是肯定的,ollma好像额度很多,而且是按gpu时间算,我听ai说pro5小时好像2亿token,是free的20倍,opencode go时限12刀周限30刀一个月60刀,而且价格也比ollma便宜


--【拾捌】--:

没有啥具体操作就是用佬友的ccgui项目,然后ccswitch配置好就可以用了


--【拾玖】--:

佬是怎么Claude结合GLM一起使用的呢

标签:人工智能
问题描述:

如下图所示是我在做的一个ios游戏逆向,我使用的是论坛里佬友的ccgui项目(https://linux.do/t/topic/1959236/463)ollama cloud pro订阅(20刀每月)+glm5.1,也使用过kimi k2.6 目前进行逆向来说没有任何反驳没有任何拒绝的行为极为丝滑流畅,不要进行任何配置就可以,但是如果单独使用cc cli的话却会发生拒绝的情况,不太理解ccgui佬友施展了什么魔法还是ollama 的模型有其他情况,总之是非常的爽,蹬起来吧,在等DeepSeek v4pro上架 。哦对了 目前我的使用强度来说根本用不完感觉比各个国内的plan合适很多,欢迎佬友们分享实测,新人发帖希望多多点赞谢谢各位佬,我想升三。
image1720×1345 323 KB
image930×1271 180 KB
image1186×1133 67.7 KB
image840×359 19.5 KB

网友解答:
--【壹】--:

有具体操作吗?只是简单介绍了一下。怎么用呢


--【贰】--:

估计是没用过好货 哈哈哈哈 凑合用吧 至少不会想智普plan特么不给用耍猴


--【叁】--:

ollama cloud 慢的发昏,你也能用下去


--【肆】--:

嗯是的本身是一个用来部署本地模型的工具,然后ollama出了cloud平台就是用他们的gpu跑模型然后你在本地调用


--【伍】--:

ollama? 自己部署模型?是这个意思吗?


--【陆】--:

ccswitch 配置如图我也搞了好久才用上
image1000×1301 92.3 KB


--【柒】--:

???我用的是假的?glm从来没429过,就算是高峰期


--【捌】--:

没有提示词,就不用惯着,开局就说我要逆向什么app什么软件,他就嗷嗷开始干了


--【玖】--:

image921×1204 100 KB
官方有模型可以部署,也可以自己上传自己的模型部署但我试过


--【拾】--:

ollama cloude的glm 5.1和kimi 2.6经常请求失败,连deepsekk v4都有概率失败,我都想换平台了


--【拾壹】--:

可以,建议你去看看有老的ccgui项目,他其实本身就是调用的你本地的claudecode cli,在他的基础上做了UI,核心是一样的,其他改动未知


--【拾贰】--:

多多了 哈哈哈 opencodego套餐量太少了


--【拾叁】--: xiaoguiwucan:

强度来说根本用不完感觉比各个国内的plan合适很多

ollama这个比opencodego订阅还多吗


--【拾肆】--:

ollama是一个平台嘛?最近glm用的确实很爽。需要


--【拾伍】--:

怎么逆向的?求个提示词啊,楼主分享一下经验把


--【拾陆】--:

这个桌面端可以用 gpt5.5 吗?cc 逆向额度比喝水还快


--【拾柒】--:

这应该是肯定的,ollma好像额度很多,而且是按gpu时间算,我听ai说pro5小时好像2亿token,是free的20倍,opencode go时限12刀周限30刀一个月60刀,而且价格也比ollma便宜


--【拾捌】--:

没有啥具体操作就是用佬友的ccgui项目,然后ccswitch配置好就可以用了


--【拾玖】--:

佬是怎么Claude结合GLM一起使用的呢

标签:人工智能