感觉DeepSeek4 flash吊打MiniMax 2.7,小需求实测
- 内容介绍
- 文章标签
- 相关推荐
我的需求如下:
从https://github.com/XXX/new-api.git这个地址拉取代码新建到D:/project下,形成new-api这个新文件夹,然后连接数据库
配置信息为:
MYSQL_HOST=XXX
MYSQL_PORT=XXX
MYSQL_USER=XXX
MYSQL_PASSWORD=XXX
MYSQL_DATABASE=XXX
我期望你连接数据库使用XXX/mcp-server-mysql
连接完成后,把用户XXXX的余额改成9999刀
其实需求简单来说就是三步:
1. 拉代码;
2. 配置mcp,我还指定了这个mcp
3. 利用mcp,以及阅读代码,修改对应内容
deepseek实际表现非常亮眼,只向我确认了本地没有XXX/mcp-server-mysql这个mcp,询问我是否需要安装。我确认安装后,它还知道mcp工具要重启后才生效,另外写了一个脚本帮我更新了数据库
image1962×1400 182 KB
话分两头,MiniMax这个时候就开始摆烂了,要我自己装mcp,还要我自己配置连接信息。
那我刚给你的指令算什么,算我有时间吗?嗯?MiniMax,look my eyes!
image1363×735 70.7 KB
下面是响应速度,DeepSeek4 flash也是快了一截
f70f97b3-dd1f-4ea1-9bfe-19bf38ff1d3a1280×1025 114 KB
e6e7e2d1-5407-49ac-ad47-d64a81be2d251243×985 109 KB
实测下来DeepSeek4 flash这个小需求大概烧了一毛多,要是有coding plan就爽了,跑跑接口测试或者养虾养马简直无敌
网友解答:--【壹】--:
ds4 这么厉害吗?而且只是一个200多b的小模型,国产要崛起了啊,这个完全可以作为一个公司内部的模型部署了
--【贰】--:
你们都是在什么IDE里面使用Deepseek的?是在CC里面吗?
--【叁】--:
NewAPI增加了tps显示吗 这个在哪里开
--【肆】--:
而且下半年基于龙虾的优化,新的 agent 应该也有很多,所以说两者加起来,应该是肯定有好的 AI 助手会出现了。
--【伍】--:
用的官方api还是?想用一下养虾养马。。
--【陆】--:
因为minimax是刷分狂魔,至今拿不出更大参数的模型
--【柒】--:
那肯定比MiniMax-M2.7好的,虽然两个模型参数量差不多,不过上下文不一样,这点会有很大差距
--【捌】--:
算算时间minimax也该更新了,minimax主要的优点是token plan很便宜,而且plan没有使用场景限制
--【玖】--:
我发现使用OpenAI chat的接口,它有一点问题。他的那个思考的回传很多都没有适配,有的IDE里面没法进行回传,比如TRAE,我现在用CC是正常的。Open Code要是也能正常回传思考的话,那么我也打算试试Open Code。
--【拾】--:
我也踩了这个坑,用Anthropic的协议可以解决,给你一份我现在的配置供你参考:
"newapi_anthropic_ds": {
"npm": "@ai-sdk/anthropic",
"name": "NewAPI-Anthropic",
"options": {
"baseURL": "ds的Anthropic端点",
"apiKey": "你的key"
},
"models": {
"deepseek-v4-flash": {
"name": "deepseek-v4-flash",
"limit": {
"context": 1048576,
"output": 262144
},
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 8192
}
}
}
}
--【拾壹】--:
其实也没有大多少,但是效果差别却非常大,minimax几乎不能用于任何生产场景
--【拾贰】--:
是的,官方api,而且因为是国内模型,直接微信或者支付宝充就行,非常方便。另外,我感觉养马的话目前价格其实还挺贵的,我跑这个小需求就花了一毛多,调用了大概20次接口,实际token开销大概40-50w。等下半年ds算力增加了,应该还会迎来一波史诗级的降价
--【拾叁】--:
Flash我觉得甚至有国产第三的水平,仅次于自己的Pro和GLM5.1,而且又便宜。小任务用起来真的挺舒服的。
--【拾肆】--:
没大多少,何况flash的定价是真符合flash,minimax的定价不像一个230b模型的定价
--【拾伍】--:
当时为了兼容智谱的Coding Plan,我用的站内钟阮佬友二开的版本,不知道是不是他二开做的功能支持
--【拾陆】--:
其实相差无几,都是两百多亿的参数,只是不知道为啥ds能强这么多,不愧是国产之光
--【拾柒】--:
别看它叫 flash,参数量可是比 m2.7 大的
--【拾捌】--:
之前在claude里面,让minimax调用codex。它一直给理解成调用coder,连字都拼不明白。
mm应该向我支付开会员的费用
--【拾玖】--:
确实用的Anthropic的协议,但是接的是opencode,CC的闭源问题导致我想用不同模型分流比较困难,具体在上一个帖子有阐述
我的需求如下:
从https://github.com/XXX/new-api.git这个地址拉取代码新建到D:/project下,形成new-api这个新文件夹,然后连接数据库
配置信息为:
MYSQL_HOST=XXX
MYSQL_PORT=XXX
MYSQL_USER=XXX
MYSQL_PASSWORD=XXX
MYSQL_DATABASE=XXX
我期望你连接数据库使用XXX/mcp-server-mysql
连接完成后,把用户XXXX的余额改成9999刀
其实需求简单来说就是三步:
1. 拉代码;
2. 配置mcp,我还指定了这个mcp
3. 利用mcp,以及阅读代码,修改对应内容
deepseek实际表现非常亮眼,只向我确认了本地没有XXX/mcp-server-mysql这个mcp,询问我是否需要安装。我确认安装后,它还知道mcp工具要重启后才生效,另外写了一个脚本帮我更新了数据库
image1962×1400 182 KB
话分两头,MiniMax这个时候就开始摆烂了,要我自己装mcp,还要我自己配置连接信息。
那我刚给你的指令算什么,算我有时间吗?嗯?MiniMax,look my eyes!
image1363×735 70.7 KB
下面是响应速度,DeepSeek4 flash也是快了一截
f70f97b3-dd1f-4ea1-9bfe-19bf38ff1d3a1280×1025 114 KB
e6e7e2d1-5407-49ac-ad47-d64a81be2d251243×985 109 KB
实测下来DeepSeek4 flash这个小需求大概烧了一毛多,要是有coding plan就爽了,跑跑接口测试或者养虾养马简直无敌
网友解答:--【壹】--:
ds4 这么厉害吗?而且只是一个200多b的小模型,国产要崛起了啊,这个完全可以作为一个公司内部的模型部署了
--【贰】--:
你们都是在什么IDE里面使用Deepseek的?是在CC里面吗?
--【叁】--:
NewAPI增加了tps显示吗 这个在哪里开
--【肆】--:
而且下半年基于龙虾的优化,新的 agent 应该也有很多,所以说两者加起来,应该是肯定有好的 AI 助手会出现了。
--【伍】--:
用的官方api还是?想用一下养虾养马。。
--【陆】--:
因为minimax是刷分狂魔,至今拿不出更大参数的模型
--【柒】--:
那肯定比MiniMax-M2.7好的,虽然两个模型参数量差不多,不过上下文不一样,这点会有很大差距
--【捌】--:
算算时间minimax也该更新了,minimax主要的优点是token plan很便宜,而且plan没有使用场景限制
--【玖】--:
我发现使用OpenAI chat的接口,它有一点问题。他的那个思考的回传很多都没有适配,有的IDE里面没法进行回传,比如TRAE,我现在用CC是正常的。Open Code要是也能正常回传思考的话,那么我也打算试试Open Code。
--【拾】--:
我也踩了这个坑,用Anthropic的协议可以解决,给你一份我现在的配置供你参考:
"newapi_anthropic_ds": {
"npm": "@ai-sdk/anthropic",
"name": "NewAPI-Anthropic",
"options": {
"baseURL": "ds的Anthropic端点",
"apiKey": "你的key"
},
"models": {
"deepseek-v4-flash": {
"name": "deepseek-v4-flash",
"limit": {
"context": 1048576,
"output": 262144
},
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 8192
}
}
}
}
--【拾壹】--:
其实也没有大多少,但是效果差别却非常大,minimax几乎不能用于任何生产场景
--【拾贰】--:
是的,官方api,而且因为是国内模型,直接微信或者支付宝充就行,非常方便。另外,我感觉养马的话目前价格其实还挺贵的,我跑这个小需求就花了一毛多,调用了大概20次接口,实际token开销大概40-50w。等下半年ds算力增加了,应该还会迎来一波史诗级的降价
--【拾叁】--:
Flash我觉得甚至有国产第三的水平,仅次于自己的Pro和GLM5.1,而且又便宜。小任务用起来真的挺舒服的。
--【拾肆】--:
没大多少,何况flash的定价是真符合flash,minimax的定价不像一个230b模型的定价
--【拾伍】--:
当时为了兼容智谱的Coding Plan,我用的站内钟阮佬友二开的版本,不知道是不是他二开做的功能支持
--【拾陆】--:
其实相差无几,都是两百多亿的参数,只是不知道为啥ds能强这么多,不愧是国产之光
--【拾柒】--:
别看它叫 flash,参数量可是比 m2.7 大的
--【拾捌】--:
之前在claude里面,让minimax调用codex。它一直给理解成调用coder,连字都拼不明白。
mm应该向我支付开会员的费用
--【拾玖】--:
确实用的Anthropic的协议,但是接的是opencode,CC的闭源问题导致我想用不同模型分流比较困难,具体在上一个帖子有阐述

