前沿慢讯,Minimax M2.7 开源了!
- 内容介绍
- 文章标签
- 相关推荐
MiniMaxAI/MiniMax-M2.7 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
官方磨蹭了好久,终于开源了
官方给的图
image1280×635 111 KB
网友解答:--【壹】--:
第三方早有了,不过不在套餐内,卖token
--【贰】--:
我先不自己猜, 等各位大佬给个评测再动手
--【叁】--:
实战体验连glm4.7都不一定比得过,底模太小了,想越级挑战还是太难了啊
--【肆】--:
在glm5.1 qwen3.6plus的衬托下,minimax还是有点乏力啊
--【伍】--:
对,Claude太离谱了,官网用4.6拓展问一个数学问题,每天答案都不一样
所以只能等到哪天出现正确答案了才会继续问其他问题
--【陆】--:
速度太慢了,现在glm 5.1都开源了都
--【柒】--:
结果官方还是没测更多 benchmark 吗。
image1570×672 128 KB
--【捌】--:
229B,其实还可以哦,干一些简单的活。
--【玖】--:
minimax2.7还不错的,至少速度很快
--【拾】--:
3.1 pro 代码能力就是比较一般的 也就改改前端了
但是日常使用不写代码的话,我感觉 gemini 是御三家里最舒服的了,claude 又贵又没有稳定渠道,GPT 语言风格令人不适,gemini 说话好听逻辑也还行,多模态也强,读读论文看看图挺好的,最重要的是非常便宜
--【拾壹】--:
不过我又想了一下,貌似自己部署的话,这个不如 Google 新开源的 Gemma 4
--【拾贰】--:
M2.7居然比Gemini-3.1-pro还要厉害吗。感觉用起来连kimi都比不上
--【拾叁】--:
等m2.7不如等5.1上架,但是貌似第三方两个都还是没有,都是接的官方渠道
--【拾肆】--:
瞪了站里佬分享的,总体使用体验下来不是很好
--【拾伍】--:
相比其他大参数量的开源模型,一般公司咬咬牙还是可以本地部署的。
--【拾陆】--:
这个分数真的对吗,怎么看着有点怪怪的啊
比如说那个 Multi-SWE Bench
--【拾柒】--:
这个Minimax2.7好用吗?效果如何啊?求大佬说说
--【拾捌】--:
模型相比其他开源的居然不是很大,才230G,GLM5.1要1.5TB,量化一下8bit还能更小一些
--【拾玖】--:
ollama 有了,不过肯定是量化了的,不知道可用性如何。
MiniMaxAI/MiniMax-M2.7 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
官方磨蹭了好久,终于开源了
官方给的图
image1280×635 111 KB
网友解答:--【壹】--:
第三方早有了,不过不在套餐内,卖token
--【贰】--:
我先不自己猜, 等各位大佬给个评测再动手
--【叁】--:
实战体验连glm4.7都不一定比得过,底模太小了,想越级挑战还是太难了啊
--【肆】--:
在glm5.1 qwen3.6plus的衬托下,minimax还是有点乏力啊
--【伍】--:
对,Claude太离谱了,官网用4.6拓展问一个数学问题,每天答案都不一样
所以只能等到哪天出现正确答案了才会继续问其他问题
--【陆】--:
速度太慢了,现在glm 5.1都开源了都
--【柒】--:
结果官方还是没测更多 benchmark 吗。
image1570×672 128 KB
--【捌】--:
229B,其实还可以哦,干一些简单的活。
--【玖】--:
minimax2.7还不错的,至少速度很快
--【拾】--:
3.1 pro 代码能力就是比较一般的 也就改改前端了
但是日常使用不写代码的话,我感觉 gemini 是御三家里最舒服的了,claude 又贵又没有稳定渠道,GPT 语言风格令人不适,gemini 说话好听逻辑也还行,多模态也强,读读论文看看图挺好的,最重要的是非常便宜
--【拾壹】--:
不过我又想了一下,貌似自己部署的话,这个不如 Google 新开源的 Gemma 4
--【拾贰】--:
M2.7居然比Gemini-3.1-pro还要厉害吗。感觉用起来连kimi都比不上
--【拾叁】--:
等m2.7不如等5.1上架,但是貌似第三方两个都还是没有,都是接的官方渠道
--【拾肆】--:
瞪了站里佬分享的,总体使用体验下来不是很好
--【拾伍】--:
相比其他大参数量的开源模型,一般公司咬咬牙还是可以本地部署的。
--【拾陆】--:
这个分数真的对吗,怎么看着有点怪怪的啊
比如说那个 Multi-SWE Bench
--【拾柒】--:
这个Minimax2.7好用吗?效果如何啊?求大佬说说
--【拾捌】--:
模型相比其他开源的居然不是很大,才230G,GLM5.1要1.5TB,量化一下8bit还能更小一些
--【拾玖】--:
ollama 有了,不过肯定是量化了的,不知道可用性如何。

