minimax2.7貌似是现在国产最强.....
- 内容介绍
- 文章标签
- 相关推荐
因为智谱 GLM 实在是吃相太难看了,降智、锁算力等等,吃相太太太太太难看了,然后我就考虑换其他国产,然后这时候 minimax2.7 发布了,立马买了个coding plan 套餐
昨晚用到现在,没有什么降智的感觉,比 GLM 5 强多了…
网友解答:--【壹】--:
是我没用明白吗 … 感觉 coding 能力和长线任务思考很差啊 … 写个脚本试错试半天。
--【贰】--:
没用过,不好评价
--【叁】--:
他是想用 但是又怕浪费时间, 大多数人对国产的编码模型都是这个态度。
--【肆】--:
我整一个月看看
--【伍】--: MiniMax2.7 的使用反馈 搞七捻三
[3405c8f8003912a766f79568dc1a4b95] 哈哈 看来真是蒸馏的
佬看看这个呢
--【陆】--:
没锁算力,智商是正常水平
--【柒】--:
蒸馏的啊,那更好啊
--【捌】--:
哦哦 因为我用过国产编码模型 表现让我很失望。但又一直出新模型。所以我想听听用过的人的意见
--【玖】--:
差不多吧
--【拾】--:
没用过。具体强在哪。
--【拾壹】--:
殊不知 coding plan 也是减量改计价了
--【拾贰】--:
我感觉 coding 还好,可能是落差效应,之前用智谱官方 GLM 5 拉爆了
--【拾叁】--:
MiniMax出了2.7以后,从昨天晚上开始到现在,服务器算力是有所下降,但是还算比较稳定。现在从稳定性来看,Kimi和MiniMax是高于GLM的。
具体在哪里查看?可以看我的帖子
--【拾肆】--:
啊 我刚从 MiniMax-M2.7 换到 GLM-5 … 感觉效果好了很多啊 …
我让 MiniMax-M2.7 + opencode(GUI) 默认配置在 windows 帮我搭杀戮尖塔2的 Mod 环境,他写出来的install.bat 自己也不试然后报错, 我写了个脚本来开关游戏,它干着干着就忘了有脚本可以用,然后就又开始用 cmd 来直接启游戏 …
--【拾伍】--:
和免费的gpt5.4 比呢 哪个更胜一筹
--【拾陆】--:
两个不能放到一起讲
选择国产是因为追求稳定性和随时可用
我不明白为什么要这么问…
--【拾柒】--: ChinaRan404:
minimax2.7
之前minimax2.5不是断档式拉跨吗
--【拾捌】--:
据说是在新加坡团队 专门蒸馏的 ,这不就想着试试了么。
--【拾玖】--:
这有幻觉嫌疑吧,用户提示词已经明确用“对”和“不对”来引导模型了,模型就顺着提示词说了
因为智谱 GLM 实在是吃相太难看了,降智、锁算力等等,吃相太太太太太难看了,然后我就考虑换其他国产,然后这时候 minimax2.7 发布了,立马买了个coding plan 套餐
昨晚用到现在,没有什么降智的感觉,比 GLM 5 强多了…
网友解答:--【壹】--:
是我没用明白吗 … 感觉 coding 能力和长线任务思考很差啊 … 写个脚本试错试半天。
--【贰】--:
没用过,不好评价
--【叁】--:
他是想用 但是又怕浪费时间, 大多数人对国产的编码模型都是这个态度。
--【肆】--:
我整一个月看看
--【伍】--: MiniMax2.7 的使用反馈 搞七捻三
[3405c8f8003912a766f79568dc1a4b95] 哈哈 看来真是蒸馏的
佬看看这个呢
--【陆】--:
没锁算力,智商是正常水平
--【柒】--:
蒸馏的啊,那更好啊
--【捌】--:
哦哦 因为我用过国产编码模型 表现让我很失望。但又一直出新模型。所以我想听听用过的人的意见
--【玖】--:
差不多吧
--【拾】--:
没用过。具体强在哪。
--【拾壹】--:
殊不知 coding plan 也是减量改计价了
--【拾贰】--:
我感觉 coding 还好,可能是落差效应,之前用智谱官方 GLM 5 拉爆了
--【拾叁】--:
MiniMax出了2.7以后,从昨天晚上开始到现在,服务器算力是有所下降,但是还算比较稳定。现在从稳定性来看,Kimi和MiniMax是高于GLM的。
具体在哪里查看?可以看我的帖子
--【拾肆】--:
啊 我刚从 MiniMax-M2.7 换到 GLM-5 … 感觉效果好了很多啊 …
我让 MiniMax-M2.7 + opencode(GUI) 默认配置在 windows 帮我搭杀戮尖塔2的 Mod 环境,他写出来的install.bat 自己也不试然后报错, 我写了个脚本来开关游戏,它干着干着就忘了有脚本可以用,然后就又开始用 cmd 来直接启游戏 …
--【拾伍】--:
和免费的gpt5.4 比呢 哪个更胜一筹
--【拾陆】--:
两个不能放到一起讲
选择国产是因为追求稳定性和随时可用
我不明白为什么要这么问…
--【拾柒】--: ChinaRan404:
minimax2.7
之前minimax2.5不是断档式拉跨吗
--【拾捌】--:
据说是在新加坡团队 专门蒸馏的 ,这不就想着试试了么。
--【拾玖】--:
这有幻觉嫌疑吧,用户提示词已经明确用“对”和“不对”来引导模型了,模型就顺着提示词说了

