deepseek专家模式上下文只有128K啊,咋还倒退了呢?

2026-04-13 13:220阅读0评论SEO教程
  • 内容介绍
  • 相关推荐
问题描述:

手太快了没码字,我今天分别问了两个模型同一个问题,专家模式说它只有128k,我甚至给了他跟快速模式的对话链接,它还是说自己128K…真倒退了啊

e91a7055-f6ff-45bc-bcd4-6953697c9e83621×708 41.7 KB

网友解答:
--【壹】--:

佬友,你这个回答是开了搜索模式吗?我开了搜索,今天刚问的,它说1M。
image1252×777 59.4 KB


--【贰】--:

猜测是不是为了防止被薅羊毛,毕竟现在 2api太流行了


--【叁】--:

如果deepseek v4还是爱瞎编的话,我对deepseek期待基本就没了。。

gpt-5.x 再烂也是卡卡搜一遍,不确定的信息基本就讲不确定,偶尔有幻觉但很少

现在v4网页版还是幻觉满天飞的感觉


--【肆】--:

快速也说128k,应该都砍,这次模型成本很大吗,把上下文都砍了


--【伍】--:

我记得deepseek的上下文本来就不多来着,尤其是官方api的还要缩一些,web的就更缩了


--【陆】--:

我通过qwen生成一个压力测试脚本,让deepseek专家模式进行重构,再让Gemini进行脚本评价,给出评价是专家级代码,更新之后反馈确实更快了,应该还不是正式的V4。


--【柒】--:

继续追问了一下,说的头头是道非常笃定,还提到了v3.2,感觉是新模型了

1e51be62-d982-4261-b57d-527ca0a5e147795×669 57 KB


--【捌】--:

快速应该还是 1M,刚刚试了一下上传 899995 tokens 的文件,提示阅读了前 98% 的内容。

阅读全文
问题描述:

手太快了没码字,我今天分别问了两个模型同一个问题,专家模式说它只有128k,我甚至给了他跟快速模式的对话链接,它还是说自己128K…真倒退了啊

e91a7055-f6ff-45bc-bcd4-6953697c9e83621×708 41.7 KB

网友解答:
--【壹】--:

佬友,你这个回答是开了搜索模式吗?我开了搜索,今天刚问的,它说1M。
image1252×777 59.4 KB


--【贰】--:

猜测是不是为了防止被薅羊毛,毕竟现在 2api太流行了


--【叁】--:

如果deepseek v4还是爱瞎编的话,我对deepseek期待基本就没了。。

gpt-5.x 再烂也是卡卡搜一遍,不确定的信息基本就讲不确定,偶尔有幻觉但很少

现在v4网页版还是幻觉满天飞的感觉


--【肆】--:

快速也说128k,应该都砍,这次模型成本很大吗,把上下文都砍了


--【伍】--:

我记得deepseek的上下文本来就不多来着,尤其是官方api的还要缩一些,web的就更缩了


--【陆】--:

我通过qwen生成一个压力测试脚本,让deepseek专家模式进行重构,再让Gemini进行脚本评价,给出评价是专家级代码,更新之后反馈确实更快了,应该还不是正式的V4。


--【柒】--:

继续追问了一下,说的头头是道非常笃定,还提到了v3.2,感觉是新模型了

1e51be62-d982-4261-b57d-527ca0a5e147795×669 57 KB


--【捌】--:

快速应该还是 1M,刚刚试了一下上传 899995 tokens 的文件,提示阅读了前 98% 的内容。

阅读全文