关于新DeepSeek api模型的上下文测试

2026-04-29 10:552阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗

网友解答:
--【壹】--:

不是上周爆料说的下周吗?上周的下周也就是这周


--【贰】--:

我跟我老婆开玩笑呢。别太在意。。。就是这样


--【叁】--:

没有2M,你骗人的,我决定罚你给我1000,快点。


--【肆】--:

八重大人请狠狠的囚禁我,鞭策我,呜呜,怕怕


--【伍】--:

是的,回滚了,回复消息都明显变慢了很多。


--【陆】--:

新版本已经出了嘛?
不是说下周嘛?我看海外有博主评测不知道真的假的


--【柒】--:

测试了下,cherry-studio 不设置上下文窗口大小,止步 ~300K

PixPin2026-04-2218-23-19485×146 11 KB

9轮对话,烧了1.89M,¥0.93

PixPin2026-04-2218-25-16306×119 11.1 KB

第10轮对话我又发了个 ~30K tokens 的文件,返回应该会被超时截断,所以我估计现在的总上下文窗口应该有 320+ ?

PixPin2026-04-2218-32-32887×803 41.9 KB

还是以单纯 python 脚本形式测试更准,可能 cherry-studio 有内置 compact 也说不定,不过我懒得搞了


--【捌】--:

不对不对,是20M吧,你记错了吧,v4登神了已经


--【玖】--:

我怎么好像被回滚回v3.2了……
现在200k都打不上去了。秒报错……
报错信息:
{“error”:{“message”:“This model’s maximum context length is 131072 tokens. However, you requested 500076 tokens (500012 in the messages, 64 in the completion). Please reduce the length of the messages or completion.”,“type”:“invalid_request_error”,“param”:null,“code”:“invalid_request_error”}}


--【拾】--:

不是,我测的2m上下文,你测错了,给我500​


--【拾壹】--:

?是不是哪里出问题了

重试了一次,飙到400K了

PixPin2026-04-2218-40-33257×110 3.47 KB

PixPin2026-04-2218-42-06301×109 10.3 KB

我算算,2284412-1893290=391122

难道还真有 1M 上下文?


--【拾贰】--:

2m?沒有錯吧!這麼誇張 不太可能吧 我測試也是200k左右就報錯了


--【拾叁】--:

貌似又被灰度到新模型了。自认知上下文依旧1m,我真实测得还是200k,超过200k报错600s超时。(不会像v3.2直接报错“131072 tokens”)。
66token/s,体感比较快


--【拾肆】--:

实锤造谣举报了,把你抓起来,关起来!狠狠地!


--【拾伍】--:

是20M,不要不相信,这样吧,你转我500刀,我给你key耍


--【拾陆】--:

token不够用,就看他的代码能能不能凑合够用了

标签:DeepSeek
问题描述:

DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗

网友解答:
--【壹】--:

不是上周爆料说的下周吗?上周的下周也就是这周


--【贰】--:

我跟我老婆开玩笑呢。别太在意。。。就是这样


--【叁】--:

没有2M,你骗人的,我决定罚你给我1000,快点。


--【肆】--:

八重大人请狠狠的囚禁我,鞭策我,呜呜,怕怕


--【伍】--:

是的,回滚了,回复消息都明显变慢了很多。


--【陆】--:

新版本已经出了嘛?
不是说下周嘛?我看海外有博主评测不知道真的假的


--【柒】--:

测试了下,cherry-studio 不设置上下文窗口大小,止步 ~300K

PixPin2026-04-2218-23-19485×146 11 KB

9轮对话,烧了1.89M,¥0.93

PixPin2026-04-2218-25-16306×119 11.1 KB

第10轮对话我又发了个 ~30K tokens 的文件,返回应该会被超时截断,所以我估计现在的总上下文窗口应该有 320+ ?

PixPin2026-04-2218-32-32887×803 41.9 KB

还是以单纯 python 脚本形式测试更准,可能 cherry-studio 有内置 compact 也说不定,不过我懒得搞了


--【捌】--:

不对不对,是20M吧,你记错了吧,v4登神了已经


--【玖】--:

我怎么好像被回滚回v3.2了……
现在200k都打不上去了。秒报错……
报错信息:
{“error”:{“message”:“This model’s maximum context length is 131072 tokens. However, you requested 500076 tokens (500012 in the messages, 64 in the completion). Please reduce the length of the messages or completion.”,“type”:“invalid_request_error”,“param”:null,“code”:“invalid_request_error”}}


--【拾】--:

不是,我测的2m上下文,你测错了,给我500​


--【拾壹】--:

?是不是哪里出问题了

重试了一次,飙到400K了

PixPin2026-04-2218-40-33257×110 3.47 KB

PixPin2026-04-2218-42-06301×109 10.3 KB

我算算,2284412-1893290=391122

难道还真有 1M 上下文?


--【拾贰】--:

2m?沒有錯吧!這麼誇張 不太可能吧 我測試也是200k左右就報錯了


--【拾叁】--:

貌似又被灰度到新模型了。自认知上下文依旧1m,我真实测得还是200k,超过200k报错600s超时。(不会像v3.2直接报错“131072 tokens”)。
66token/s,体感比较快


--【拾肆】--:

实锤造谣举报了,把你抓起来,关起来!狠狠地!


--【拾伍】--:

是20M,不要不相信,这样吧,你转我500刀,我给你key耍


--【拾陆】--:

token不够用,就看他的代码能能不能凑合够用了

标签:DeepSeek