找了半天DeepSeek在MRCR的跑分数据,没想到论文里面就有
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
参考Opus4.6官方提供的MRCR跑分图,感觉DeepSeekV4的上下文还行,至少不是差到没法用,如果V4.1能训练代码能力成功配合下半年950的饼,那也算一个不错的代码模型?
不过一个是MRCR,一个是MRCR v2,不知道对跑分的影响大不大。
image815×399 37.3 KB
image1649×851 114 KB
下面是GPT-5.5上下文的跑分数据。
image915×1269 47.8 KB
--【壹】--:
deepseek engram 可能在多回合对话有奇效?
可能单回合1M上下文未能发挥deepseek engram优处
--【贰】--:
看了下论文,其实没有engram这个专有名词,所以我推测可能预览版没有引入这个机制。
--【叁】--:
补充GPT 5.5 MRCR v2 是74%
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
参考Opus4.6官方提供的MRCR跑分图,感觉DeepSeekV4的上下文还行,至少不是差到没法用,如果V4.1能训练代码能力成功配合下半年950的饼,那也算一个不错的代码模型?
不过一个是MRCR,一个是MRCR v2,不知道对跑分的影响大不大。
image815×399 37.3 KB
image1649×851 114 KB
下面是GPT-5.5上下文的跑分数据。
image915×1269 47.8 KB
--【壹】--:
deepseek engram 可能在多回合对话有奇效?
可能单回合1M上下文未能发挥deepseek engram优处
--【贰】--:
看了下论文,其实没有engram这个专有名词,所以我推测可能预览版没有引入这个机制。
--【叁】--:
补充GPT 5.5 MRCR v2 是74%

