关于新DeepSeek api模型的上下文测试
- 内容介绍
- 文章标签
- 相关推荐
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗
--【壹】--:
不是上周爆料说的下周吗?上周的下周也就是这周
--【贰】--:
我跟我老婆开玩笑呢。别太在意。。。就是这样
--【叁】--:
没有2M,你骗人的,我决定罚你给我1000,快点。
--【肆】--:
八重大人请狠狠的囚禁我,鞭策我,呜呜,怕怕
--【伍】--:
是的,回滚了,回复消息都明显变慢了很多。
--【陆】--:
新版本已经出了嘛?
不是说下周嘛?我看海外有博主评测不知道真的假的
--【柒】--:
测试了下,cherry-studio 不设置上下文窗口大小,止步 ~300K
PixPin2026-04-2218-23-19485×146 11 KB
9轮对话,烧了1.89M,¥0.93
PixPin2026-04-2218-25-16306×119 11.1 KB
第10轮对话我又发了个 ~30K tokens 的文件,返回应该会被超时截断,所以我估计现在的总上下文窗口应该有 320+ ?
PixPin2026-04-2218-32-32887×803 41.9 KB
还是以单纯 python 脚本形式测试更准,可能 cherry-studio 有内置 compact 也说不定,不过我懒得搞了
--【捌】--:
不对不对,是20M吧,你记错了吧,v4登神了已经
--【玖】--:
我怎么好像被回滚回v3.2了……
现在200k都打不上去了。秒报错……
报错信息:
{“error”:{“message”:“This model’s maximum context length is 131072 tokens. However, you requested 500076 tokens (500012 in the messages, 64 in the completion). Please reduce the length of the messages or completion.”,“type”:“invalid_request_error”,“param”:null,“code”:“invalid_request_error”}}
--【拾】--:
不是,我测的2m上下文,你测错了,给我500
--【拾壹】--:
?是不是哪里出问题了
重试了一次,飙到400K了
PixPin2026-04-2218-40-33257×110 3.47 KB
PixPin2026-04-2218-42-06301×109 10.3 KB
我算算,2284412-1893290=391122
难道还真有 1M 上下文?
--【拾贰】--:
2m?沒有錯吧!這麼誇張 不太可能吧 我測試也是200k左右就報錯了
--【拾叁】--:
貌似又被灰度到新模型了。自认知上下文依旧1m,我真实测得还是200k,超过200k报错600s超时。(不会像v3.2直接报错“131072 tokens”)。
66token/s,体感比较快
--【拾肆】--:
实锤造谣举报了,把你抓起来,关起来!狠狠地!
--【拾伍】--:
是20M,不要不相信,这样吧,你转我500刀,我给你key耍
--【拾陆】--:
token不够用,就看他的代码能能不能凑合够用了
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗
--【壹】--:
不是上周爆料说的下周吗?上周的下周也就是这周
--【贰】--:
我跟我老婆开玩笑呢。别太在意。。。就是这样
--【叁】--:
没有2M,你骗人的,我决定罚你给我1000,快点。
--【肆】--:
八重大人请狠狠的囚禁我,鞭策我,呜呜,怕怕
--【伍】--:
是的,回滚了,回复消息都明显变慢了很多。
--【陆】--:
新版本已经出了嘛?
不是说下周嘛?我看海外有博主评测不知道真的假的
--【柒】--:
测试了下,cherry-studio 不设置上下文窗口大小,止步 ~300K
PixPin2026-04-2218-23-19485×146 11 KB
9轮对话,烧了1.89M,¥0.93
PixPin2026-04-2218-25-16306×119 11.1 KB
第10轮对话我又发了个 ~30K tokens 的文件,返回应该会被超时截断,所以我估计现在的总上下文窗口应该有 320+ ?
PixPin2026-04-2218-32-32887×803 41.9 KB
还是以单纯 python 脚本形式测试更准,可能 cherry-studio 有内置 compact 也说不定,不过我懒得搞了
--【捌】--:
不对不对,是20M吧,你记错了吧,v4登神了已经
--【玖】--:
我怎么好像被回滚回v3.2了……
现在200k都打不上去了。秒报错……
报错信息:
{“error”:{“message”:“This model’s maximum context length is 131072 tokens. However, you requested 500076 tokens (500012 in the messages, 64 in the completion). Please reduce the length of the messages or completion.”,“type”:“invalid_request_error”,“param”:null,“code”:“invalid_request_error”}}
--【拾】--:
不是,我测的2m上下文,你测错了,给我500
--【拾壹】--:
?是不是哪里出问题了
重试了一次,飙到400K了
PixPin2026-04-2218-40-33257×110 3.47 KB
PixPin2026-04-2218-42-06301×109 10.3 KB
我算算,2284412-1893290=391122
难道还真有 1M 上下文?
--【拾贰】--:
2m?沒有錯吧!這麼誇張 不太可能吧 我測試也是200k左右就報錯了
--【拾叁】--:
貌似又被灰度到新模型了。自认知上下文依旧1m,我真实测得还是200k,超过200k报错600s超时。(不会像v3.2直接报错“131072 tokens”)。
66token/s,体感比较快
--【拾肆】--:
实锤造谣举报了,把你抓起来,关起来!狠狠地!
--【拾伍】--:
是20M,不要不相信,这样吧,你转我500刀,我给你key耍
--【拾陆】--:
token不够用,就看他的代码能能不能凑合够用了

