为啥还有人在吹minimax-M2.7啊,说说我自己测试的感受
- 内容介绍
- 文章标签
- 相关推荐
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因为企业人数超过10人,绑定了也不能用,但是至少绑定了,然后自己查出了不能用的原因,说实在的,差距还是挺大的,然后刚刚就在公众号刷到了有人说minimax-m2.7写程序如何如何牛,我就不信,一个简单的配置都搞不定的模型,写程序能有多牛。
网友解答:--【壹】--:
minimax2.7,只能说是初中生的智商.让它干个事情,总是顾此失彼,乱干
--【贰】--:
MiniMax-2.7 感觉代码修改不是很到位,很多时候需要来回滚两三轮才能跑起来。
读代码仓库还过得去,就是一到工作点就负载高开摆,提醒升级highspeed
--【叁】--:
我没看到人吹MINIMAX M2.7,我在他们官网群里,基本都是骂的 佬可以举个例子怎么吹的,因为现在M2.7是真的降智
--【肆】--:
都是营销,哪里有什么钱赚呀,纯ai做的app都没灵魂,都是所谓的垃圾app
--【伍】--:
这个模型只能干点非常简单的活 总结/写个网页之类的
毕竟参数量放在那了
--【陆】--:
丢,做个项目两三轮回滚,真是太好用了
--【柒】--:
主要是这个模型便宜,便宜大碗,回复速度快。
--【捌】--:
不是的,那个人说他用minimax-m2.7写了3个微信小程序,挣了啥啥多少钱啥的。一下没点进去看,找不到原文了。
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因为企业人数超过10人,绑定了也不能用,但是至少绑定了,然后自己查出了不能用的原因,说实在的,差距还是挺大的,然后刚刚就在公众号刷到了有人说minimax-m2.7写程序如何如何牛,我就不信,一个简单的配置都搞不定的模型,写程序能有多牛。
网友解答:--【壹】--:
minimax2.7,只能说是初中生的智商.让它干个事情,总是顾此失彼,乱干
--【贰】--:
MiniMax-2.7 感觉代码修改不是很到位,很多时候需要来回滚两三轮才能跑起来。
读代码仓库还过得去,就是一到工作点就负载高开摆,提醒升级highspeed
--【叁】--:
我没看到人吹MINIMAX M2.7,我在他们官网群里,基本都是骂的 佬可以举个例子怎么吹的,因为现在M2.7是真的降智
--【肆】--:
都是营销,哪里有什么钱赚呀,纯ai做的app都没灵魂,都是所谓的垃圾app
--【伍】--:
这个模型只能干点非常简单的活 总结/写个网页之类的
毕竟参数量放在那了
--【陆】--:
丢,做个项目两三轮回滚,真是太好用了
--【柒】--:
主要是这个模型便宜,便宜大碗,回复速度快。
--【捌】--:
不是的,那个人说他用minimax-m2.7写了3个微信小程序,挣了啥啥多少钱啥的。一下没点进去看,找不到原文了。

