Deepseek今天之前的快速和专家模式对应的是什么模型

2026-04-29 10:121阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

今天Deepseek正式发布了v4版本。然后看官方的这个介绍来说,快速模式就是对应Flash,专家模式就是对应Pro。
但是在这v4正式发布之前的时候,deepseek已经有了快速模式和专家模式选择。那么之前灰度的模型到底是什么?各位有没有什么测试?究竟是一直用Flash,还是说我们已经提早使用过一次v4?

网友解答:
--【壹】--:

就是system prompt有问题吧,它明确说自己是v3,如果是v4应该会更新system prompt或者模糊不写具体型号


--【贰】--:

{no thinking, high, max} * {flash, pro} 一共六个档哦


--【叁】--:

今天之前的快速是v4f,但不清楚是哪个检测点,但今天之前的专家肯定不是pro


--【肆】--:

原来Deepseek有推理运算的吗?主要是有四个档,两个模式分别开和关深度思考,乘起来就是四个档。确实比较好奇。


--【伍】--:

今天官网的模型就是v4吗?为什么我问模型还是说v3


--【陆】--:

flash的不同思考深度吧,v4出之前两个模型的tps都很高,不像专家


--【柒】--:

直接问模型一般是问不出来的吧,主要是看system prompt,如果上下文是1M就是了


--【捌】--:

之前的快速和专家,应该分别对应 v4-flash 的不同思考预算。


--【玖】--:

之前的模型应该是调试过程中的EXP吧!或者之前的专家模型就是虚设的,和快速模式用的是同一款。

标签:人工智能
问题描述:

今天Deepseek正式发布了v4版本。然后看官方的这个介绍来说,快速模式就是对应Flash,专家模式就是对应Pro。
但是在这v4正式发布之前的时候,deepseek已经有了快速模式和专家模式选择。那么之前灰度的模型到底是什么?各位有没有什么测试?究竟是一直用Flash,还是说我们已经提早使用过一次v4?

网友解答:
--【壹】--:

就是system prompt有问题吧,它明确说自己是v3,如果是v4应该会更新system prompt或者模糊不写具体型号


--【贰】--:

{no thinking, high, max} * {flash, pro} 一共六个档哦


--【叁】--:

今天之前的快速是v4f,但不清楚是哪个检测点,但今天之前的专家肯定不是pro


--【肆】--:

原来Deepseek有推理运算的吗?主要是有四个档,两个模式分别开和关深度思考,乘起来就是四个档。确实比较好奇。


--【伍】--:

今天官网的模型就是v4吗?为什么我问模型还是说v3


--【陆】--:

flash的不同思考深度吧,v4出之前两个模型的tps都很高,不像专家


--【柒】--:

直接问模型一般是问不出来的吧,主要是看system prompt,如果上下文是1M就是了


--【捌】--:

之前的快速和专家,应该分别对应 v4-flash 的不同思考预算。


--【玖】--:

之前的模型应该是调试过程中的EXP吧!或者之前的专家模型就是虚设的,和快速模式用的是同一款。

标签:人工智能