MiniMax官方宣布:M2.7现已正式开源!
- 内容介绍
- 文章标签
- 相关推荐
MiniMax 宣布 MiniMax M2.7 现已正式开源,该模型在 SWE-Pro(56.22%)和 Terminal Bench 2(57.0%)等基准测试中取得了 SOTA(当前最优)性能表现。用户现在可以在 Hugging Face 上获取该模型。
MiniMax-M2.7 是其首个深度参与自身进化过程的模型。M2.7 能够构建复杂的代理框架,并利用代理团队、复杂技能和动态工具搜索功能,完成高度复杂的生产力任务。
image1266×1664 225 KB
image1566×1962 270 KB
MiniMaxAI/MiniMax-M2.7 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
MiniMax M2.7: Early Echoes of Self-Evolution
MiniMax-M2.7
ModelScope——汇聚各领域先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务。在这里,共建模型开源社区,发现、学习、定制和分享心仪的模型。
网友解答:--【壹】--:
开源好啊,开源得支持,但是怎么才229b?
这玩意儿是满血的放出来的吗,glm5.1都744b了
--【贰】--:
我去,这才是神豪啊
四五万的卡说买就买
--【叁】--:
我8卡L20跑起来了,感觉还不错 ;
--【肆】--:
这个参数量既有些出乎意料又在情理之中,毕竟用起来确实不太行,现在看到这个参数量的话又可以理解了
--【伍】--:
MiniMax 的模型一直都是 200多B 的,他们赌的就是便宜 Token。
--【陆】--:
这个模型好像还不如qwen 的3.6模型
--【柒】--:
229B需要多大配置才能流畅运行呢?
突然感觉可以本地部署一个啊?
--【捌】--:
他的训练集里面就只有跑分题,不含一丝真实场景
--【玖】--:
image1280×635 111 KB
比上一代好一点,没好太多,最好的还是glm
--【拾】--:
看着吹的很牛,实际用起来远远比不上qwen/glm这类的模型
--【拾壹】--:
想到qwen系列二百多b的模型一直很拉胯…
--【拾贰】--:
太豪了,这得30多万了吧,佬友还是太有实力了
--【拾叁】--:
然而 NON-COMMERCIAL LICENSE 如开
--【拾肆】--:
minimax比千问还能刷分,但是实际体验下来就是一坨.千问好歹小模型很牛逼,minimax真的是啥啥都不行
--【拾伍】--: limitpea:
本地部署一个啊?
本地部署 服务器需要什么配置啊 我看看需要多少钱
--【拾陆】--:
需要H100了吧,apple m3 ultra应该也能用,不过没这个必要吧。apple m3 ultra 现在是16万多。 两张6000 pro可以跑4bit
我问grok:Mac:M 系列芯片 + 128 GB 统一内存(Apple Silicon 直接用 Metal)。
PC:96 GB+ 系统 RAM + 至少一块 16 GB VRAM GPU(RTX 4090 / A6000 等均可)。
--【拾柒】--:
佬友太有实力了,我就只能等公司部了后爽用
--【拾捌】--:
千问都不如嘛?那我要重新测试审视一下了。
--【拾玖】--:
模型能力如何?国内的大模型很少用,综合能力想知道下
MiniMax 宣布 MiniMax M2.7 现已正式开源,该模型在 SWE-Pro(56.22%)和 Terminal Bench 2(57.0%)等基准测试中取得了 SOTA(当前最优)性能表现。用户现在可以在 Hugging Face 上获取该模型。
MiniMax-M2.7 是其首个深度参与自身进化过程的模型。M2.7 能够构建复杂的代理框架,并利用代理团队、复杂技能和动态工具搜索功能,完成高度复杂的生产力任务。
image1266×1664 225 KB
image1566×1962 270 KB
MiniMaxAI/MiniMax-M2.7 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
MiniMax M2.7: Early Echoes of Self-Evolution
MiniMax-M2.7
ModelScope——汇聚各领域先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务。在这里,共建模型开源社区,发现、学习、定制和分享心仪的模型。
网友解答:--【壹】--:
开源好啊,开源得支持,但是怎么才229b?
这玩意儿是满血的放出来的吗,glm5.1都744b了
--【贰】--:
我去,这才是神豪啊
四五万的卡说买就买
--【叁】--:
我8卡L20跑起来了,感觉还不错 ;
--【肆】--:
这个参数量既有些出乎意料又在情理之中,毕竟用起来确实不太行,现在看到这个参数量的话又可以理解了
--【伍】--:
MiniMax 的模型一直都是 200多B 的,他们赌的就是便宜 Token。
--【陆】--:
这个模型好像还不如qwen 的3.6模型
--【柒】--:
229B需要多大配置才能流畅运行呢?
突然感觉可以本地部署一个啊?
--【捌】--:
他的训练集里面就只有跑分题,不含一丝真实场景
--【玖】--:
image1280×635 111 KB
比上一代好一点,没好太多,最好的还是glm
--【拾】--:
看着吹的很牛,实际用起来远远比不上qwen/glm这类的模型
--【拾壹】--:
想到qwen系列二百多b的模型一直很拉胯…
--【拾贰】--:
太豪了,这得30多万了吧,佬友还是太有实力了
--【拾叁】--:
然而 NON-COMMERCIAL LICENSE 如开
--【拾肆】--:
minimax比千问还能刷分,但是实际体验下来就是一坨.千问好歹小模型很牛逼,minimax真的是啥啥都不行
--【拾伍】--: limitpea:
本地部署一个啊?
本地部署 服务器需要什么配置啊 我看看需要多少钱
--【拾陆】--:
需要H100了吧,apple m3 ultra应该也能用,不过没这个必要吧。apple m3 ultra 现在是16万多。 两张6000 pro可以跑4bit
我问grok:Mac:M 系列芯片 + 128 GB 统一内存(Apple Silicon 直接用 Metal)。
PC:96 GB+ 系统 RAM + 至少一块 16 GB VRAM GPU(RTX 4090 / A6000 等均可)。
--【拾柒】--:
佬友太有实力了,我就只能等公司部了后爽用
--【拾捌】--:
千问都不如嘛?那我要重新测试审视一下了。
--【拾玖】--:
模型能力如何?国内的大模型很少用,综合能力想知道下

