感觉DeepSeek4 flash吊打MiniMax 2.7,小需求实测

2026-04-29 09:022阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我的需求如下:

从https://github.com/XXX/new-api.git这个地址拉取代码

新建到D:/project下,形成new-api这个新文件夹,然后连接数据库

配置信息为:
MYSQL_HOST=XXX
MYSQL_PORT=XXX
MYSQL_USER=XXX
MYSQL_PASSWORD=XXX
MYSQL_DATABASE=XXX

我期望你连接数据库使用XXX/mcp-server-mysql

连接完成后,把用户XXXX的余额改成9999刀

其实需求简单来说就是三步:
1. 拉代码;
2. 配置mcp,我还指定了这个mcp
3. 利用mcp,以及阅读代码,修改对应内容

deepseek实际表现非常亮眼,只向我确认了本地没有XXX/mcp-server-mysql这个mcp,询问我是否需要安装。我确认安装后,它还知道mcp工具要重启后才生效,另外写了一个脚本帮我更新了数据库

image1962×1400 182 KB

话分两头,MiniMax这个时候就开始摆烂了,要我自己装mcp,还要我自己配置连接信息。

那我刚给你的指令算什么,算我有时间吗?嗯?MiniMax,look my eyes!

image1363×735 70.7 KB

下面是响应速度,DeepSeek4 flash也是快了一截
f70f97b3-dd1f-4ea1-9bfe-19bf38ff1d3a1280×1025 114 KB
e6e7e2d1-5407-49ac-ad47-d64a81be2d251243×985 109 KB

实测下来DeepSeek4 flash这个小需求大概烧了一毛多,要是有coding plan就爽了,跑跑接口测试或者养虾养马简直无敌

网友解答:
--【壹】--:

ds4 这么厉害吗?而且只是一个200多b的小模型,国产要崛起了啊,这个完全可以作为一个公司内部的模型部署了


--【贰】--:

你们都是在什么IDE里面使用Deepseek的?是在CC里面吗?


--【叁】--:

NewAPI增加了tps显示吗 这个在哪里开


--【肆】--:

而且下半年基于龙虾的优化,新的 agent 应该也有很多,所以说两者加起来,应该是肯定有好的 AI 助手会出现了。


--【伍】--:

用的官方api还是?想用一下养虾养马。。


--【陆】--:

因为minimax是刷分狂魔,至今拿不出更大参数的模型


--【柒】--:

那肯定比MiniMax-M2.7好的,虽然两个模型参数量差不多,不过上下文不一样,这点会有很大差距


--【捌】--:

算算时间minimax也该更新了,minimax主要的优点是token plan很便宜,而且plan没有使用场景限制


--【玖】--:

我发现使用OpenAI chat的接口,它有一点问题。他的那个思考的回传很多都没有适配,有的IDE里面没法进行回传,比如TRAE,我现在用CC是正常的。Open Code要是也能正常回传思考的话,那么我也打算试试Open Code。


--【拾】--:

我也踩了这个坑,用Anthropic的协议可以解决,给你一份我现在的配置供你参考:

"newapi_anthropic_ds": { "npm": "@ai-sdk/anthropic", "name": "NewAPI-Anthropic", "options": { "baseURL": "ds的Anthropic端点", "apiKey": "你的key" }, "models": { "deepseek-v4-flash": { "name": "deepseek-v4-flash", "limit": { "context": 1048576, "output": 262144 }, "options": { "thinking": { "type": "enabled", "budgetTokens": 8192 } } } }


--【拾壹】--:

其实也没有大多少,但是效果差别却非常大,minimax几乎不能用于任何生产场景


--【拾贰】--:

是的,官方api,而且因为是国内模型,直接微信或者支付宝充就行,非常方便。另外,我感觉养马的话目前价格其实还挺贵的,我跑这个小需求就花了一毛多,调用了大概20次接口,实际token开销大概40-50w。等下半年ds算力增加了,应该还会迎来一波史诗级的降价


--【拾叁】--:

Flash我觉得甚至有国产第三的水平,仅次于自己的Pro和GLM5.1,而且又便宜。小任务用起来真的挺舒服的。


--【拾肆】--:

没大多少,何况flash的定价是真符合flash,minimax的定价不像一个230b模型的定价


--【拾伍】--:

当时为了兼容智谱的Coding Plan,我用的站内钟阮佬友二开的版本,不知道是不是他二开做的功能支持


--【拾陆】--:

其实相差无几,都是两百多亿的参数,只是不知道为啥ds能强这么多,不愧是国产之光


--【拾柒】--:

别看它叫 flash,参数量可是比 m2.7 大的


--【拾捌】--:

之前在claude里面,让minimax调用codex。它一直给理解成调用coder,连字都拼不明白。
mm应该向我支付开会员的费用


--【拾玖】--:

确实用的Anthropic的协议,但是接的是opencode,CC的闭源问题导致我想用不同模型分流比较困难,具体在上一个帖子有阐述

问题描述:

我的需求如下:

从https://github.com/XXX/new-api.git这个地址拉取代码

新建到D:/project下,形成new-api这个新文件夹,然后连接数据库

配置信息为:
MYSQL_HOST=XXX
MYSQL_PORT=XXX
MYSQL_USER=XXX
MYSQL_PASSWORD=XXX
MYSQL_DATABASE=XXX

我期望你连接数据库使用XXX/mcp-server-mysql

连接完成后,把用户XXXX的余额改成9999刀

其实需求简单来说就是三步:
1. 拉代码;
2. 配置mcp,我还指定了这个mcp
3. 利用mcp,以及阅读代码,修改对应内容

deepseek实际表现非常亮眼,只向我确认了本地没有XXX/mcp-server-mysql这个mcp,询问我是否需要安装。我确认安装后,它还知道mcp工具要重启后才生效,另外写了一个脚本帮我更新了数据库

image1962×1400 182 KB

话分两头,MiniMax这个时候就开始摆烂了,要我自己装mcp,还要我自己配置连接信息。

那我刚给你的指令算什么,算我有时间吗?嗯?MiniMax,look my eyes!

image1363×735 70.7 KB

下面是响应速度,DeepSeek4 flash也是快了一截
f70f97b3-dd1f-4ea1-9bfe-19bf38ff1d3a1280×1025 114 KB
e6e7e2d1-5407-49ac-ad47-d64a81be2d251243×985 109 KB

实测下来DeepSeek4 flash这个小需求大概烧了一毛多,要是有coding plan就爽了,跑跑接口测试或者养虾养马简直无敌

网友解答:
--【壹】--:

ds4 这么厉害吗?而且只是一个200多b的小模型,国产要崛起了啊,这个完全可以作为一个公司内部的模型部署了


--【贰】--:

你们都是在什么IDE里面使用Deepseek的?是在CC里面吗?


--【叁】--:

NewAPI增加了tps显示吗 这个在哪里开


--【肆】--:

而且下半年基于龙虾的优化,新的 agent 应该也有很多,所以说两者加起来,应该是肯定有好的 AI 助手会出现了。


--【伍】--:

用的官方api还是?想用一下养虾养马。。


--【陆】--:

因为minimax是刷分狂魔,至今拿不出更大参数的模型


--【柒】--:

那肯定比MiniMax-M2.7好的,虽然两个模型参数量差不多,不过上下文不一样,这点会有很大差距


--【捌】--:

算算时间minimax也该更新了,minimax主要的优点是token plan很便宜,而且plan没有使用场景限制


--【玖】--:

我发现使用OpenAI chat的接口,它有一点问题。他的那个思考的回传很多都没有适配,有的IDE里面没法进行回传,比如TRAE,我现在用CC是正常的。Open Code要是也能正常回传思考的话,那么我也打算试试Open Code。


--【拾】--:

我也踩了这个坑,用Anthropic的协议可以解决,给你一份我现在的配置供你参考:

"newapi_anthropic_ds": { "npm": "@ai-sdk/anthropic", "name": "NewAPI-Anthropic", "options": { "baseURL": "ds的Anthropic端点", "apiKey": "你的key" }, "models": { "deepseek-v4-flash": { "name": "deepseek-v4-flash", "limit": { "context": 1048576, "output": 262144 }, "options": { "thinking": { "type": "enabled", "budgetTokens": 8192 } } } }


--【拾壹】--:

其实也没有大多少,但是效果差别却非常大,minimax几乎不能用于任何生产场景


--【拾贰】--:

是的,官方api,而且因为是国内模型,直接微信或者支付宝充就行,非常方便。另外,我感觉养马的话目前价格其实还挺贵的,我跑这个小需求就花了一毛多,调用了大概20次接口,实际token开销大概40-50w。等下半年ds算力增加了,应该还会迎来一波史诗级的降价


--【拾叁】--:

Flash我觉得甚至有国产第三的水平,仅次于自己的Pro和GLM5.1,而且又便宜。小任务用起来真的挺舒服的。


--【拾肆】--:

没大多少,何况flash的定价是真符合flash,minimax的定价不像一个230b模型的定价


--【拾伍】--:

当时为了兼容智谱的Coding Plan,我用的站内钟阮佬友二开的版本,不知道是不是他二开做的功能支持


--【拾陆】--:

其实相差无几,都是两百多亿的参数,只是不知道为啥ds能强这么多,不愧是国产之光


--【拾柒】--:

别看它叫 flash,参数量可是比 m2.7 大的


--【拾捌】--:

之前在claude里面,让minimax调用codex。它一直给理解成调用coder,连字都拼不明白。
mm应该向我支付开会员的费用


--【拾玖】--:

确实用的Anthropic的协议,但是接的是opencode,CC的闭源问题导致我想用不同模型分流比较困难,具体在上一个帖子有阐述