有高强度用过国产模型编程的给点推荐吗
- 内容介绍
- 文章标签
- 相关推荐
因为oai最近政策不稳定,claude封号问题又太折腾,所以想用用国产模型看看
目前是订了一个GLM的Pro
QQ_17749462962511580×519 41.9 KB
GLM5.1 模型智商来说的话是够用的,用着和sonnet差距不大
但是用量有点捉襟见肘,感觉上max才够用,但是上max的话不如加点钱直接上claude的5x或者20x
QQ_1774946470715945×165 8.49 KB
才周二 周限额就37%了
还有就是glm的pro这个标的理论额度是claude的15x,这个统计口径是不是不对啊,我用着感觉还没有claude max5x耐用? 如果glm统计口径有出入的话我就考虑直接订阅claude max5x了
其他几家国产模型kimi minimax的有人用过吗,我看着是比GLM贵而且模型能力可能还不如GLM5.1
网友解答:--【壹】--:
codex现在都不稳啊 之前一直用的codex
--【贰】--:
鱼的codex现在不太稳啊
--【叁】--:
glm-5高峰期好像是倍数的统计口径 所以不禁用
此外minimax请忽略 不值得
kimi太贵了 量好像也没glm多
国产模型现在都太慢了 算力不足越来越严重了
--【肆】--:
我自己就是老的lite 可惜没啥用 只能升级成pro了
要是没这个老套餐续费的入口我现在还抢不到呢
--【伍】--:
其实我倒是觉得工具不是啥太大的护城河,自己做了也没啥人用,这个东西讲究的是顺手和生态,没有特别好用的特色功能做了也是白做。
因为oai最近政策不稳定,claude封号问题又太折腾,所以想用用国产模型看看
目前是订了一个GLM的Pro
QQ_17749462962511580×519 41.9 KB
GLM5.1 模型智商来说的话是够用的,用着和sonnet差距不大
但是用量有点捉襟见肘,感觉上max才够用,但是上max的话不如加点钱直接上claude的5x或者20x
QQ_1774946470715945×165 8.49 KB
才周二 周限额就37%了
还有就是glm的pro这个标的理论额度是claude的15x,这个统计口径是不是不对啊,我用着感觉还没有claude max5x耐用? 如果glm统计口径有出入的话我就考虑直接订阅claude max5x了
其他几家国产模型kimi minimax的有人用过吗,我看着是比GLM贵而且模型能力可能还不如GLM5.1
网友解答:--【壹】--:
codex现在都不稳啊 之前一直用的codex
--【贰】--:
鱼的codex现在不太稳啊
--【叁】--:
glm-5高峰期好像是倍数的统计口径 所以不禁用
此外minimax请忽略 不值得
kimi太贵了 量好像也没glm多
国产模型现在都太慢了 算力不足越来越严重了
--【肆】--:
我自己就是老的lite 可惜没啥用 只能升级成pro了
要是没这个老套餐续费的入口我现在还抢不到呢
--【伍】--:
其实我倒是觉得工具不是啥太大的护城河,自己做了也没啥人用,这个东西讲究的是顺手和生态,没有特别好用的特色功能做了也是白做。

