找了半天DeepSeek在MRCR的跑分数据,没想到论文里面就有

2026-04-29 10:091阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

参考Opus4.6官方提供的MRCR跑分图,感觉DeepSeekV4的上下文还行,至少不是差到没法用,如果V4.1能训练代码能力成功配合下半年950的饼,那也算一个不错的代码模型?

不过一个是MRCR,一个是MRCR v2,不知道对跑分的影响大不大。

image815×399 37.3 KB
image1649×851 114 KB
下面是GPT-5.5上下文的跑分数据。
image915×1269 47.8 KB

网友解答:
--【壹】--:

deepseek engram 可能在多回合对话有奇效?

可能单回合1M上下文未能发挥deepseek engram优处


--【贰】--:

看了下论文,其实没有engram这个专有名词,所以我推测可能预览版没有引入这个机制。


--【叁】--:

补充GPT 5.5 MRCR v2 是74%

问题描述:

参考Opus4.6官方提供的MRCR跑分图,感觉DeepSeekV4的上下文还行,至少不是差到没法用,如果V4.1能训练代码能力成功配合下半年950的饼,那也算一个不错的代码模型?

不过一个是MRCR,一个是MRCR v2,不知道对跑分的影响大不大。

image815×399 37.3 KB
image1649×851 114 KB
下面是GPT-5.5上下文的跑分数据。
image915×1269 47.8 KB

网友解答:
--【壹】--:

deepseek engram 可能在多回合对话有奇效?

可能单回合1M上下文未能发挥deepseek engram优处


--【贰】--:

看了下论文,其实没有engram这个专有名词,所以我推测可能预览版没有引入这个机制。


--【叁】--:

补充GPT 5.5 MRCR v2 是74%