Deepseek今天之前的快速和专家模式对应的是什么模型
- 内容介绍
- 文章标签
- 相关推荐
今天Deepseek正式发布了v4版本。然后看官方的这个介绍来说,快速模式就是对应Flash,专家模式就是对应Pro。
但是在这v4正式发布之前的时候,deepseek已经有了快速模式和专家模式选择。那么之前灰度的模型到底是什么?各位有没有什么测试?究竟是一直用Flash,还是说我们已经提早使用过一次v4?
--【壹】--:
就是system prompt有问题吧,它明确说自己是v3,如果是v4应该会更新system prompt或者模糊不写具体型号
--【贰】--:
{no thinking, high, max} * {flash, pro} 一共六个档哦
--【叁】--:
今天之前的快速是v4f,但不清楚是哪个检测点,但今天之前的专家肯定不是pro
--【肆】--:
原来Deepseek有推理运算的吗?主要是有四个档,两个模式分别开和关深度思考,乘起来就是四个档。确实比较好奇。
--【伍】--:
今天官网的模型就是v4吗?为什么我问模型还是说v3
--【陆】--:
flash的不同思考深度吧,v4出之前两个模型的tps都很高,不像专家
--【柒】--:
直接问模型一般是问不出来的吧,主要是看system prompt,如果上下文是1M就是了
--【捌】--:
之前的快速和专家,应该分别对应 v4-flash 的不同思考预算。
--【玖】--:
之前的模型应该是调试过程中的EXP吧!或者之前的专家模型就是虚设的,和快速模式用的是同一款。
今天Deepseek正式发布了v4版本。然后看官方的这个介绍来说,快速模式就是对应Flash,专家模式就是对应Pro。
但是在这v4正式发布之前的时候,deepseek已经有了快速模式和专家模式选择。那么之前灰度的模型到底是什么?各位有没有什么测试?究竟是一直用Flash,还是说我们已经提早使用过一次v4?
--【壹】--:
就是system prompt有问题吧,它明确说自己是v3,如果是v4应该会更新system prompt或者模糊不写具体型号
--【贰】--:
{no thinking, high, max} * {flash, pro} 一共六个档哦
--【叁】--:
今天之前的快速是v4f,但不清楚是哪个检测点,但今天之前的专家肯定不是pro
--【肆】--:
原来Deepseek有推理运算的吗?主要是有四个档,两个模式分别开和关深度思考,乘起来就是四个档。确实比较好奇。
--【伍】--:
今天官网的模型就是v4吗?为什么我问模型还是说v3
--【陆】--:
flash的不同思考深度吧,v4出之前两个模型的tps都很高,不像专家
--【柒】--:
直接问模型一般是问不出来的吧,主要是看system prompt,如果上下文是1M就是了
--【捌】--:
之前的快速和专家,应该分别对应 v4-flash 的不同思考预算。
--【玖】--:
之前的模型应该是调试过程中的EXP吧!或者之前的专家模型就是虚设的,和快速模式用的是同一款。

