CC GUI配合ollama cloud+glm5.1逆向太爽了
- 内容介绍
- 文章标签
- 相关推荐
如下图所示是我在做的一个ios游戏逆向,我使用的是论坛里佬友的ccgui项目(https://linux.do/t/topic/1959236/463)ollama cloud pro订阅(20刀每月)+glm5.1,也使用过kimi k2.6 目前进行逆向来说没有任何反驳没有任何拒绝的行为极为丝滑流畅,不要进行任何配置就可以,但是如果单独使用cc cli的话却会发生拒绝的情况,不太理解ccgui佬友施展了什么魔法还是ollama 的模型有其他情况,总之是非常的爽,蹬起来吧,在等DeepSeek v4pro上架 。哦对了 目前我的使用强度来说根本用不完感觉比各个国内的plan合适很多,欢迎佬友们分享实测,新人发帖希望多多点赞谢谢各位佬,我想升三。
image1720×1345 323 KB
image930×1271 180 KB
image1186×1133 67.7 KB
image840×359 19.5 KB
--【壹】--:
有具体操作吗?只是简单介绍了一下。怎么用呢
--【贰】--:
估计是没用过好货 哈哈哈哈 凑合用吧 至少不会想智普plan特么不给用耍猴
--【叁】--:
ollama cloud 慢的发昏,你也能用下去
--【肆】--:
嗯是的本身是一个用来部署本地模型的工具,然后ollama出了cloud平台就是用他们的gpu跑模型然后你在本地调用
--【伍】--:
ollama? 自己部署模型?是这个意思吗?
--【陆】--:
ccswitch 配置如图我也搞了好久才用上
image1000×1301 92.3 KB
--【柒】--:
???我用的是假的?glm从来没429过,就算是高峰期
--【捌】--:
没有提示词,就不用惯着,开局就说我要逆向什么app什么软件,他就嗷嗷开始干了
--【玖】--:
image921×1204 100 KB
官方有模型可以部署,也可以自己上传自己的模型部署但我试过
--【拾】--:
ollama cloude的glm 5.1和kimi 2.6经常请求失败,连deepsekk v4都有概率失败,我都想换平台了
--【拾壹】--:
可以,建议你去看看有老的ccgui项目,他其实本身就是调用的你本地的claudecode cli,在他的基础上做了UI,核心是一样的,其他改动未知
--【拾贰】--:
多多了 哈哈哈 opencodego套餐量太少了
--【拾叁】--: xiaoguiwucan:
强度来说根本用不完感觉比各个国内的plan合适很多
ollama这个比opencodego订阅还多吗
--【拾肆】--:
ollama是一个平台嘛?最近glm用的确实很爽。需要
--【拾伍】--:
怎么逆向的?求个提示词啊,楼主分享一下经验把
--【拾陆】--:
这个桌面端可以用 gpt5.5 吗?cc 逆向额度比喝水还快
--【拾柒】--:
这应该是肯定的,ollma好像额度很多,而且是按gpu时间算,我听ai说pro5小时好像2亿token,是free的20倍,opencode go时限12刀周限30刀一个月60刀,而且价格也比ollma便宜
--【拾捌】--:
没有啥具体操作就是用佬友的ccgui项目,然后ccswitch配置好就可以用了
--【拾玖】--:
佬是怎么Claude结合GLM一起使用的呢
如下图所示是我在做的一个ios游戏逆向,我使用的是论坛里佬友的ccgui项目(https://linux.do/t/topic/1959236/463)ollama cloud pro订阅(20刀每月)+glm5.1,也使用过kimi k2.6 目前进行逆向来说没有任何反驳没有任何拒绝的行为极为丝滑流畅,不要进行任何配置就可以,但是如果单独使用cc cli的话却会发生拒绝的情况,不太理解ccgui佬友施展了什么魔法还是ollama 的模型有其他情况,总之是非常的爽,蹬起来吧,在等DeepSeek v4pro上架 。哦对了 目前我的使用强度来说根本用不完感觉比各个国内的plan合适很多,欢迎佬友们分享实测,新人发帖希望多多点赞谢谢各位佬,我想升三。
image1720×1345 323 KB
image930×1271 180 KB
image1186×1133 67.7 KB
image840×359 19.5 KB
--【壹】--:
有具体操作吗?只是简单介绍了一下。怎么用呢
--【贰】--:
估计是没用过好货 哈哈哈哈 凑合用吧 至少不会想智普plan特么不给用耍猴
--【叁】--:
ollama cloud 慢的发昏,你也能用下去
--【肆】--:
嗯是的本身是一个用来部署本地模型的工具,然后ollama出了cloud平台就是用他们的gpu跑模型然后你在本地调用
--【伍】--:
ollama? 自己部署模型?是这个意思吗?
--【陆】--:
ccswitch 配置如图我也搞了好久才用上
image1000×1301 92.3 KB
--【柒】--:
???我用的是假的?glm从来没429过,就算是高峰期
--【捌】--:
没有提示词,就不用惯着,开局就说我要逆向什么app什么软件,他就嗷嗷开始干了
--【玖】--:
image921×1204 100 KB
官方有模型可以部署,也可以自己上传自己的模型部署但我试过
--【拾】--:
ollama cloude的glm 5.1和kimi 2.6经常请求失败,连deepsekk v4都有概率失败,我都想换平台了
--【拾壹】--:
可以,建议你去看看有老的ccgui项目,他其实本身就是调用的你本地的claudecode cli,在他的基础上做了UI,核心是一样的,其他改动未知
--【拾贰】--:
多多了 哈哈哈 opencodego套餐量太少了
--【拾叁】--: xiaoguiwucan:
强度来说根本用不完感觉比各个国内的plan合适很多
ollama这个比opencodego订阅还多吗
--【拾肆】--:
ollama是一个平台嘛?最近glm用的确实很爽。需要
--【拾伍】--:
怎么逆向的?求个提示词啊,楼主分享一下经验把
--【拾陆】--:
这个桌面端可以用 gpt5.5 吗?cc 逆向额度比喝水还快
--【拾柒】--:
这应该是肯定的,ollma好像额度很多,而且是按gpu时间算,我听ai说pro5小时好像2亿token,是free的20倍,opencode go时限12刀周限30刀一个月60刀,而且价格也比ollma便宜
--【拾捌】--:
没有啥具体操作就是用佬友的ccgui项目,然后ccswitch配置好就可以用了
--【拾玖】--:
佬是怎么Claude结合GLM一起使用的呢

