MiniMax官方宣布:M2.7现已正式开源!

2026-04-13 12:021阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

MiniMax 宣布 MiniMax M2.7 现已正式开源,该模型在 SWE-Pro(56.22%)和 Terminal Bench 2(57.0%)等基准测试中取得了 SOTA(当前最优)性能表现。用户现在可以在 Hugging Face 上获取该模型。
MiniMax-M2.7 是其首个深度参与自身进化过程的模型。M2.7 能够构建复杂的代理框架,并利用代理团队、复杂技能和动态工具搜索功能,完成高度复杂的生产力任务。
image1266×1664 225 KB
image1566×1962 270 KB

huggingface.co

MiniMaxAI/MiniMax-M2.7 · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

MiniMax

MiniMax M2.7: Early Echoes of Self-Evolution

modelscope.cn

MiniMax-M2.7

ModelScope——汇聚各领域先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务。在这里,共建模型开源社区,发现、学习、定制和分享心仪的模型。

网友解答:
--【壹】--:

开源好啊,开源得支持,但是怎么才229b?

这玩意儿是满血的放出来的吗,glm5.1都744b了


--【贰】--:

我去,这才是神豪啊

四五万的卡说买就买


--【叁】--:

我8卡L20跑起来了,感觉还不错 ;


--【肆】--:

这个参数量既有些出乎意料又在情理之中,毕竟用起来确实不太行,现在看到这个参数量的话又可以理解了


--【伍】--:

MiniMax 的模型一直都是 200多B 的,他们赌的就是便宜 Token。


--【陆】--:

这个模型好像还不如qwen 的3.6模型


--【柒】--:

229B需要多大配置才能流畅运行呢?
突然感觉可以本地部署一个啊?


--【捌】--:

他的训练集里面就只有跑分题,不含一丝真实场景


--【玖】--:

image1280×635 111 KB
比上一代好一点,没好太多,最好的还是glm


--【拾】--:

看着吹的很牛,实际用起来远远比不上qwen/glm这类的模型


--【拾壹】--:

想到qwen系列二百多b的模型一直很拉胯…


--【拾贰】--:

太豪了,这得30多万了吧,佬友还是太有实力了


--【拾叁】--:

然而 NON-COMMERCIAL LICENSE 如开


--【拾肆】--:

minimax比千问还能刷分,但是实际体验下来就是一坨.千问好歹小模型很牛逼,minimax真的是啥啥都不行


--【拾伍】--: limitpea:

本地部署一个啊?

本地部署 服务器需要什么配置啊 我看看需要多少钱


--【拾陆】--:

需要H100了吧,apple m3 ultra应该也能用,不过没这个必要吧。apple m3 ultra 现在是16万多。 两张6000 pro可以跑4bit
我问grok:Mac:M 系列芯片 + 128 GB 统一内存(Apple Silicon 直接用 Metal)。
PC:96 GB+ 系统 RAM + 至少一块 16 GB VRAM GPU(RTX 4090 / A6000 等均可)。


--【拾柒】--:

佬友太有实力了,我就只能等公司部了后爽用


--【拾捌】--:

千问都不如嘛?那我要重新测试审视一下了。


--【拾玖】--:

模型能力如何?国内的大模型很少用,综合能力想知道下