前沿慢讯,Minimax M2.7 开源了!

2026-04-13 12:291阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:
huggingface.co

MiniMaxAI/MiniMax-M2.7 · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

官方磨蹭了好久,终于开源了

官方给的图

image1280×635 111 KB

网友解答:
--【壹】--:

第三方早有了,不过不在套餐内,卖token


--【贰】--:

我先不自己猜, 等各位大佬给个评测再动手


--【叁】--:

实战体验连glm4.7都不一定比得过,底模太小了,想越级挑战还是太难了啊


--【肆】--:

在glm5.1 qwen3.6plus的衬托下,minimax还是有点乏力啊


--【伍】--:

对,Claude太离谱了,官网用4.6拓展问一个数学问题,每天答案都不一样
所以只能等到哪天出现正确答案了才会继续问其他问题


--【陆】--:

速度太慢了,现在glm 5.1都开源了都


--【柒】--:

结果官方还是没测更多 benchmark 吗。

image1570×672 128 KB


--【捌】--:

229B,其实还可以哦,干一些简单的活。


--【玖】--:

minimax2.7还不错的,至少速度很快


--【拾】--:

3.1 pro 代码能力就是比较一般的 也就改改前端了

但是日常使用不写代码的话,我感觉 gemini 是御三家里最舒服的了,claude 又贵又没有稳定渠道,GPT 语言风格令人不适,gemini 说话好听逻辑也还行,多模态也强,读读论文看看图挺好的,最重要的是非常便宜


--【拾壹】--:

不过我又想了一下,貌似自己部署的话,这个不如 Google 新开源的 Gemma 4


--【拾贰】--:

M2.7居然比Gemini-3.1-pro还要厉害吗。感觉用起来连kimi都比不上


--【拾叁】--:

等m2.7不如等5.1上架,但是貌似第三方两个都还是没有,都是接的官方渠道


--【拾肆】--:

瞪了站里佬分享的,总体使用体验下来不是很好


--【拾伍】--:

相比其他大参数量的开源模型,一般公司咬咬牙还是可以本地部署的。


--【拾陆】--:

这个分数真的对吗,怎么看着有点怪怪的啊

比如说那个 Multi-SWE Bench


--【拾柒】--:

这个Minimax2.7好用吗?效果如何啊?求大佬说说


--【拾捌】--:

模型相比其他开源的居然不是很大,才230G,GLM5.1要1.5TB,量化一下8bit还能更小一些


--【拾玖】--:

ollama 有了,不过肯定是量化了的,不知道可用性如何。