为啥还有人在吹minimax-M2.7啊,说说我自己测试的感受
- 内容介绍
- 文章标签
- 相关推荐
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因为企业人数超过10人,绑定了也不能用,但是至少绑定了,然后自己查出了不能用的原因,说实在的,差距还是挺大的,然后刚刚就在公众号刷到了有人说minimax-m2.7写程序如何如何牛,我就不信,一个简单的配置都搞不定的模型,写程序能有多牛。
网友解答:--【壹】--:
minimax2.7,只能说是初中生的智商.让它干个事情,总是顾此失彼,乱干
--【贰】--:
MiniMax-2.7 感觉代码修改不是很到位,很多时候需要来回滚两三轮才能跑起来。
读代码仓库还过得去,就是一到工作点就负载高开摆,提醒升级highspeed
--【叁】--:
我没看到人吹MINIMAX M2.7,我在他们官网群里,基本都是骂的 佬可以举个例子怎么吹的,因为现在M2.7是真的降智
--【肆】--:
都是营销,哪里有什么钱赚呀,纯ai做的app都没灵魂,都是所谓的垃圾app
--【伍】--:
这个模型只能干点非常简单的活 总结/写个网页之类的
毕竟参数量放在那了
--【陆】--:
丢,做个项目两三轮回滚,真是太好用了
--【柒】--:
主要是这个模型便宜,便宜大碗,回复速度快。
--【捌】--:
不是的,那个人说他用minimax-m2.7写了3个微信小程序,挣了啥啥多少钱啥的。一下没点进去看,找不到原文了。
--【玖】--:
我的感觉是,写简单的可以,但是稍微复杂一些的就不行了,拙见
--【拾】--:
接触的时候还觉得这种模型反应特别快,干活挺利索,后来布置一个稍难一点的任务的时候,就开始丢三落四的,要说的特别完整才会去做,感觉推理能力不行,然后下午的话也基本上是供应不了一的优势也丢失了。
--【拾壹】--:
minimax 200B激活10B。这个参数量就不可能有多少智商。
--【拾贰】--:
如果说模型不行,就会有人说是你提示词的原因,但是同样的提示词换成其他模型就能完成,是不是就可以侧面证明模型不如其他模型呢,国产御三家和国外御三家都用过,确实差距还是挺大的。
--【拾叁】--:
可能是tool use这方面不行,我之前放龙虾里极其抽象,但凡改点配置都会把gateway干掉,我不明白为什么对一个llm来说json会这么难理解。
但是丢cc里也还算过得去,虽然agent loop里全是写出屎山修复屎山结果写出新的屎山,不过放手让他跑总归还是能跑出个结果。鉴于这东西实在是便宜,也有他自己的生态位吧。
--【拾肆】--:
minimax是真刷分,300b不到,市值吹上天,还不如mimo,
--【拾伍】--:
minimax-m2.7 和 glm5-1
我觉得还是glm聪明点~
--【拾陆】--:
minimax2.7哪个渠道速度都很快,glm5.1哪个渠道都卡,使用人数我觉得还是能说明一些情况的,minimax参数本身小,而且感觉是纯蒸馏的结果,除了快之外没感觉有啥优势
--【拾柒】--:
我之前在cc里面用minimax2.7,当时我让他帮我写个python脚本处理一些文件,要求它把原文件备份到backup文件夹里,处理后的文件保持原名原路径存放,然后它给我把处理后的文件放到了backup文件夹里,原文件全删了
--【拾捌】--:
m2.7傻快傻快的,正常用还得是glm5.1
--【拾玖】--:
不同场景 不同人 使用体验不同很正常
不用强求一个标准化的统一答案
万一人家只用来做代码补全呢
我在qclaw里用的,minimax-m2.7的倍率是0.7,kimi-k2.6的倍率是1.6,glm-5.1的倍率是2.5,然后我让qclaw绑定一下企业微信的机器人,结果m2.7给我聊了7~8轮,硬是指挥着我到处兜圈子,就是没搞定,然后换glm5.1,一次指令就绑定了,虽然因为企业人数超过10人,绑定了也不能用,但是至少绑定了,然后自己查出了不能用的原因,说实在的,差距还是挺大的,然后刚刚就在公众号刷到了有人说minimax-m2.7写程序如何如何牛,我就不信,一个简单的配置都搞不定的模型,写程序能有多牛。
网友解答:--【壹】--:
minimax2.7,只能说是初中生的智商.让它干个事情,总是顾此失彼,乱干
--【贰】--:
MiniMax-2.7 感觉代码修改不是很到位,很多时候需要来回滚两三轮才能跑起来。
读代码仓库还过得去,就是一到工作点就负载高开摆,提醒升级highspeed
--【叁】--:
我没看到人吹MINIMAX M2.7,我在他们官网群里,基本都是骂的 佬可以举个例子怎么吹的,因为现在M2.7是真的降智
--【肆】--:
都是营销,哪里有什么钱赚呀,纯ai做的app都没灵魂,都是所谓的垃圾app
--【伍】--:
这个模型只能干点非常简单的活 总结/写个网页之类的
毕竟参数量放在那了
--【陆】--:
丢,做个项目两三轮回滚,真是太好用了
--【柒】--:
主要是这个模型便宜,便宜大碗,回复速度快。
--【捌】--:
不是的,那个人说他用minimax-m2.7写了3个微信小程序,挣了啥啥多少钱啥的。一下没点进去看,找不到原文了。
--【玖】--:
我的感觉是,写简单的可以,但是稍微复杂一些的就不行了,拙见
--【拾】--:
接触的时候还觉得这种模型反应特别快,干活挺利索,后来布置一个稍难一点的任务的时候,就开始丢三落四的,要说的特别完整才会去做,感觉推理能力不行,然后下午的话也基本上是供应不了一的优势也丢失了。
--【拾壹】--:
minimax 200B激活10B。这个参数量就不可能有多少智商。
--【拾贰】--:
如果说模型不行,就会有人说是你提示词的原因,但是同样的提示词换成其他模型就能完成,是不是就可以侧面证明模型不如其他模型呢,国产御三家和国外御三家都用过,确实差距还是挺大的。
--【拾叁】--:
可能是tool use这方面不行,我之前放龙虾里极其抽象,但凡改点配置都会把gateway干掉,我不明白为什么对一个llm来说json会这么难理解。
但是丢cc里也还算过得去,虽然agent loop里全是写出屎山修复屎山结果写出新的屎山,不过放手让他跑总归还是能跑出个结果。鉴于这东西实在是便宜,也有他自己的生态位吧。
--【拾肆】--:
minimax是真刷分,300b不到,市值吹上天,还不如mimo,
--【拾伍】--:
minimax-m2.7 和 glm5-1
我觉得还是glm聪明点~
--【拾陆】--:
minimax2.7哪个渠道速度都很快,glm5.1哪个渠道都卡,使用人数我觉得还是能说明一些情况的,minimax参数本身小,而且感觉是纯蒸馏的结果,除了快之外没感觉有啥优势
--【拾柒】--:
我之前在cc里面用minimax2.7,当时我让他帮我写个python脚本处理一些文件,要求它把原文件备份到backup文件夹里,处理后的文件保持原名原路径存放,然后它给我把处理后的文件放到了backup文件夹里,原文件全删了
--【拾捌】--:
m2.7傻快傻快的,正常用还得是glm5.1
--【拾玖】--:
不同场景 不同人 使用体验不同很正常
不用强求一个标准化的统一答案
万一人家只用来做代码补全呢

