【吐槽】国产的minimax2.7是真的垃圾

2026-04-11 08:091阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

之前为了养龙虾,也不想搞国外的,就290买了minimax的plan套餐年费的,越用越垃圾,就是正常的对话感觉要不行了,话是话就是里面没有一点逻辑,还一直反问我,用的巨烦。
贴一个临时会话:
image1212×636 65.2 KB
现在都什么时候了,还没有GPT3.5好用,,,我真的妈的烦死了,,又浪费时间又浪费金钱。

网友解答:
--【壹】--:

莫名被戳到笑点了,前两天有个GLM的帖子也是这样,莫名难绷


--【贰】--: siliconx:

严重同意,垃圾的要命,用起来极度浪费时间

不能说,马上会有人来了:“不要用个人代表所有人”,“你不用国模,国模怎么变化”


--【叁】--:

这不就是经典的故障机器人:偏差认知卡咯


--【肆】--:

养龙虾吧,别让他干需要脑子的活了,放过自己


--【伍】--:

它认为自己是 claude code 是正常的,因为本来最大的场景就是买了 coding plan 在 cc 中使用,一切都为了迎合 cc。


--【陆】--:

非常赞同,跟傻子聊天的感觉,解决不了问题


--【柒】--:

还没deepseek网页上免费的好使,,,我真的服了~


--【捌】--:

m2.1刚出来那会还算能打的 现在远远落下了 m3不知道能不能整出个啥


--【玖】--:

minimax最大的优势就是快, 性能感觉跟其他国产差了一个小版本


--【拾】--:

严重同意,垃圾的要命,用起来极度浪费时间


--【拾壹】--:

虽然但是,就你的截图来看,我想说大模型是没有自我认知的


--【拾贰】--:

嗯,,但是他的幻觉太严重了,,回复的就一点逻辑都没有的,,就不知道在干什么,,,


--【拾叁】--:

最近好几人吐槽了,opencode/claude 里实测确实有点差劲


--【拾肆】--:

是这样的,我买了490的,现在完全在吃灰


--【拾伍】--:

同样的代码任务(稍微复杂些的)明显能够看出minimax和其他模型有很大的差距,我测了很久了,证明这个模型就是纯垃圾,作为一个220B的模型用出了30B模型的感觉


--【拾陆】--:

对的,我当时也是看上了这一点,觉得稍微弱智一点没关系得,再就是plan套餐便宜,然后我就上大当了~~~


--【拾柒】--:

我现在用的是 GLM,没有买到 coding plan ,只能充值然后调用 api,在 cc 里面,目前感觉还不错的


--【拾捌】--:

我至今没用过国产模型api哈哈哈,因为我用各自的网页版,回复都牛头不对马嘴


--【拾玖】--:

用过一次,只能说送给我用我也不想用了。就这样

问题描述:

之前为了养龙虾,也不想搞国外的,就290买了minimax的plan套餐年费的,越用越垃圾,就是正常的对话感觉要不行了,话是话就是里面没有一点逻辑,还一直反问我,用的巨烦。
贴一个临时会话:
image1212×636 65.2 KB
现在都什么时候了,还没有GPT3.5好用,,,我真的妈的烦死了,,又浪费时间又浪费金钱。

网友解答:
--【壹】--:

莫名被戳到笑点了,前两天有个GLM的帖子也是这样,莫名难绷


--【贰】--: siliconx:

严重同意,垃圾的要命,用起来极度浪费时间

不能说,马上会有人来了:“不要用个人代表所有人”,“你不用国模,国模怎么变化”


--【叁】--:

这不就是经典的故障机器人:偏差认知卡咯


--【肆】--:

养龙虾吧,别让他干需要脑子的活了,放过自己


--【伍】--:

它认为自己是 claude code 是正常的,因为本来最大的场景就是买了 coding plan 在 cc 中使用,一切都为了迎合 cc。


--【陆】--:

非常赞同,跟傻子聊天的感觉,解决不了问题


--【柒】--:

还没deepseek网页上免费的好使,,,我真的服了~


--【捌】--:

m2.1刚出来那会还算能打的 现在远远落下了 m3不知道能不能整出个啥


--【玖】--:

minimax最大的优势就是快, 性能感觉跟其他国产差了一个小版本


--【拾】--:

严重同意,垃圾的要命,用起来极度浪费时间


--【拾壹】--:

虽然但是,就你的截图来看,我想说大模型是没有自我认知的


--【拾贰】--:

嗯,,但是他的幻觉太严重了,,回复的就一点逻辑都没有的,,就不知道在干什么,,,


--【拾叁】--:

最近好几人吐槽了,opencode/claude 里实测确实有点差劲


--【拾肆】--:

是这样的,我买了490的,现在完全在吃灰


--【拾伍】--:

同样的代码任务(稍微复杂些的)明显能够看出minimax和其他模型有很大的差距,我测了很久了,证明这个模型就是纯垃圾,作为一个220B的模型用出了30B模型的感觉


--【拾陆】--:

对的,我当时也是看上了这一点,觉得稍微弱智一点没关系得,再就是plan套餐便宜,然后我就上大当了~~~


--【拾柒】--:

我现在用的是 GLM,没有买到 coding plan ,只能充值然后调用 api,在 cc 里面,目前感觉还不错的


--【拾捌】--:

我至今没用过国产模型api哈哈哈,因为我用各自的网页版,回复都牛头不对马嘴


--【拾玖】--:

用过一次,只能说送给我用我也不想用了。就这样