关于新DeepSeek api模型的上下文测试
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗
--【壹】--:
不是上周爆料说的下周吗?上周的下周也就是这周
--【贰】--:
我跟我老婆开玩笑呢。别太在意。。。就是这样
--【叁】--:
没有2M,你骗人的,我决定罚你给我1000,快点。
--【肆】--:
八重大人请狠狠的囚禁我,鞭策我,呜呜,怕怕
--【伍】--:
是的,回滚了,回复消息都明显变慢了很多。
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。
但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。
超时报错:{“error”:{“message”:“We were unable to start processing your request within the 600-second timeout limit. Please try again later.”}}
各位也是这样一个情况吗
--【壹】--:
不是上周爆料说的下周吗?上周的下周也就是这周
--【贰】--:
我跟我老婆开玩笑呢。别太在意。。。就是这样
--【叁】--:
没有2M,你骗人的,我决定罚你给我1000,快点。
--【肆】--:
八重大人请狠狠的囚禁我,鞭策我,呜呜,怕怕
--【伍】--:
是的,回滚了,回复消息都明显变慢了很多。

