deepseek专家模式上下文只有128K啊,咋还倒退了呢?
- 内容介绍
- 相关推荐
手太快了没码字,我今天分别问了两个模型同一个问题,专家模式说它只有128k,我甚至给了他跟快速模式的对话链接,它还是说自己128K…真倒退了啊
e91a7055-f6ff-45bc-bcd4-6953697c9e83621×708 41.7 KB
网友解答:--【壹】--:
佬友,你这个回答是开了搜索模式吗?我开了搜索,今天刚问的,它说1M。
image1252×777 59.4 KB
--【贰】--:
猜测是不是为了防止被薅羊毛,毕竟现在 2api太流行了
--【叁】--:
如果deepseek v4还是爱瞎编的话,我对deepseek期待基本就没了。。
gpt-5.x 再烂也是卡卡搜一遍,不确定的信息基本就讲不确定,偶尔有幻觉但很少
现在v4网页版还是幻觉满天飞的感觉
--【肆】--:
快速也说128k,应该都砍,这次模型成本很大吗,把上下文都砍了
--【伍】--:
我记得deepseek的上下文本来就不多来着,尤其是官方api的还要缩一些,web的就更缩了
--【陆】--:
我通过qwen生成一个压力测试脚本,让deepseek专家模式进行重构,再让Gemini进行脚本评价,给出评价是专家级代码,更新之后反馈确实更快了,应该还不是正式的V4。
--【柒】--:
继续追问了一下,说的头头是道非常笃定,还提到了v3.2,感觉是新模型了
1e51be62-d982-4261-b57d-527ca0a5e147795×669 57 KB
--【捌】--:
快速应该还是 1M,刚刚试了一下上传 899995 tokens 的文件,提示阅读了前 98% 的内容。
--【玖】--:
问他自己不一定准吧,万一没训练这方面数据那大概率拿旧的编,还是得看实际的测试
--【拾】--: RU_Sirius:
尤其是官方api的还要缩一些
你的意思难道是第三方平台部署的DeepSeek api上下文比官方的更长?
手太快了没码字,我今天分别问了两个模型同一个问题,专家模式说它只有128k,我甚至给了他跟快速模式的对话链接,它还是说自己128K…真倒退了啊
e91a7055-f6ff-45bc-bcd4-6953697c9e83621×708 41.7 KB
网友解答:--【壹】--:
佬友,你这个回答是开了搜索模式吗?我开了搜索,今天刚问的,它说1M。
image1252×777 59.4 KB
--【贰】--:
猜测是不是为了防止被薅羊毛,毕竟现在 2api太流行了
--【叁】--:
如果deepseek v4还是爱瞎编的话,我对deepseek期待基本就没了。。
gpt-5.x 再烂也是卡卡搜一遍,不确定的信息基本就讲不确定,偶尔有幻觉但很少
现在v4网页版还是幻觉满天飞的感觉
--【肆】--:
快速也说128k,应该都砍,这次模型成本很大吗,把上下文都砍了
--【伍】--:
我记得deepseek的上下文本来就不多来着,尤其是官方api的还要缩一些,web的就更缩了
--【陆】--:
我通过qwen生成一个压力测试脚本,让deepseek专家模式进行重构,再让Gemini进行脚本评价,给出评价是专家级代码,更新之后反馈确实更快了,应该还不是正式的V4。
--【柒】--:
继续追问了一下,说的头头是道非常笃定,还提到了v3.2,感觉是新模型了
1e51be62-d982-4261-b57d-527ca0a5e147795×669 57 KB
--【捌】--:
快速应该还是 1M,刚刚试了一下上传 899995 tokens 的文件,提示阅读了前 98% 的内容。
--【玖】--:
问他自己不一定准吧,万一没训练这方面数据那大概率拿旧的编,还是得看实际的测试
--【拾】--: RU_Sirius:
尤其是官方api的还要缩一些
你的意思难道是第三方平台部署的DeepSeek api上下文比官方的更长?

