从 Deepseek v4 看 AI 未来新格局

2026-04-29 08:442阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

从 Deepseek v4 看 AI 未来新格局

1.英伟达彻底丧失独大地位已为时不远,预估两年左右AI硬件会形成两极格局,即中美。

2.传统向量检索的 RAG 形式会很快淘汰,RAG 的趋势一定是以结构化数据为基础的各种变体,检索上引擎会完全由LLM驱动。

理由:
第一个问题:

英伟达护城河是 Cuda 与制程。

Cuda 所以为护城河,其关键一个因素要兼容各种软件平台,这是一份沉重的历史债,也是其最核心的护城河。但单看 LLM 的训练与推理这个单项,英伟达 Cuda 的护城河则浅得多得多。简单讲,完整的 Cuda 生态要兼容各种游戏、设计等场景,这些场景与 Cuda形成了深度耦合。这些各种场景往往个性化严重,涉及产商自己的各种技术债,例如各种特化的奇淫巧技与神奇 Bug 等,这些技术债形成的屎山代码在与 Cuda 的相互兼容进化中已经极难理解和维护了。

但抛开这些技术债,回归 LLM 本身的核心科学计算上,护城河可谓浅得一批,甚至具有大量因为兼容其它的屎山而导致的各种副作用。

在 R1 之后,Deepseek在科学计算上的创新可谓层出不穷,这些原本都是属于 Cuda 生态的份内工作,每一次都带来巨大的 LLM 训练和推理的收益。而 v4 直接运行在昇腾上,可以肯定,在 LLM 相关的科学计算上,Deepseek已经系统系统性掌握了其核心,并且在相当程度上已经超过了英伟达。

放在以前,即使掌握 Cuda 的科学计算体系,也很难在短时间建立起一个替代的体系。就像开发者会开发某个软件,但也不意味着能在短时间内凭借理解和记忆复刻出来。但是,编程 Agent 发展到现在,这个问题已经不是问题了。Codex、Claude code等编程 Agent 的工程逆向能力有目共睹,也就是说只要完全理解和掌握一个体系,重建出这个体系的效率已经发生了翻天覆地的变化,v4 运行在昇腾上已经足够说明这一点。

所以对于 AI 来说,Deepseek 对 Cuda 可谓是如履平地,以后 Cuda 大概要经常抄Deepseek 的作业,谁让 Deepsee k是大善人呢。至于制程,这根本没那么重要,国内掌握的制程已经足够应对,没有任何卡脖子风险。

第二个问题:

向量检索是一条死路,其在精度上的固有缺陷是没办法解决的,LLM 的理解才是唯一出路。LLM 的上下文长度又是其中的关键,v4 的能力已经基本具备了实现条件。何况将来的上下文还有更大的进步空间。

为什么说两极格局呢,即使能一超通吃也不推荐,一家独大并不科学。

imgv30211469e97db9-6ad4-40e6-a1f1-13455533748g1923×1080 219 KB

网友解答:
--【壹】--:

RAG不会消失,但向量检索会消失,因为准确性的问题。


--【贰】--:

希望如此,国内要是能解决算力问题那真的是一件天大的好事,国模未必打不过洋模(真正意义上的,不是只是跑分,虽然现在跑分也没完全打过)


--【叁】--:

事情还是朝着黄仁勋最不希望的方向发展了 中美硬件打擂台,英伟达不再一家独大,希望国模越来越好


--【肆】--:

时间、人、电力都在中国,未来不用太担心,目前最担心的是昇腾搞闭源,做不出行业标准


--【伍】--:

之前看X上有人阅读技术报告发现,DS v4训练两个月的数据,如果用openai的全部硬件来训练,只需要三十多个小时就够了。
当然实际上不可能openai全部硬件只用来训练,但是也可以看出两个公司的硬件差异有多巨大。


--【陆】--:

DeepSeekV4证明了降低推理成本很重要,别老惦记着堆量
几家国模能保证服务不降级,增量却降价吗
再编:
boost说狂加参数的问题,加参数是智商的根本,但是推理成本很重要,没有衡量好推理成本之前不要先低价套餐吸引人又降级服务质量,因为你吸引人的时候是明知道自己参数量多,推理成本高而去进行的自杀式营销,最后终要降级服务质量的
如何在提升模型参数量的同时,减少相对应推理的成本,让大参数量在实际服务中可行,是ds交出的答卷,我希望boost不要忽视这一客观贡献
我们要的是聪明的模型,但也是诚实的成本价格和服务质量,而不是把你骗进来卸磨杀驴,最后超售了,服务降级再哭惨,最后大家还得用更高的价格才能用上“满血”的模型
btw,本条没讨论上下文长度问题


--【柒】--:

这张图真好看,有蓝鲸鱼,也有ds发的那段话


--【捌】--:

是的 虽然我个人不喜欢华为 但不能否定华为在领域里做出的贡献 国模的算力问题如果能够得到解决 也不用被a出这样的公司一直恶心了…


--【玖】--:

可能还太保守了,AI也在一直进化,可能要不了两年。


--【拾】--:

感觉RAG不会消失,毕竟数据量大的话LLM还是处理不了的,感觉以后会变成RAG的过滤会更松,仅做相关过滤,然后由LLM准确找


--【拾壹】--:

我的意思是我们可以学习一下这个态度,相信自己所相信的,不要以别人的夸奖或者诽谤啊开始质疑或者激动。


--【拾贰】--:

用户和用户差别还是挺大的,用酒馆的ds3.2够用。coding的基本都选gpt和claude,最低的也glm5.1,
ds做不到满足所有人的需求(实际上也确实做不到),自己每一次有进步就行了,当然了,别人是夸是骂都很正常,我就很直白的说V4贵,但是夸有新技术也一样的

ds如果真因为外界评论影响到自己,那公司早就不用开了


--【拾叁】--:

从评论表情就能看得出来,有人点赞,有人看不起。但也就正应了那四句话,最后的那四句话。


--【拾肆】--:

好像也不是全部硬件吧,只是在建的那个数据中心估算出来目前已经能投入使用的所有计算卡


--【拾伍】--:

左上角的 DeepSeek Logo 显得很鬼畜啊……


--【拾陆】--:

过于乐观了,如果说谁能取代英伟达,那么只有谷歌,别忘了国产卡训练都才刚刚起步。模型有7-12个月的差距,但硬件差距是以年计算的,而且硬件还有生产的问题

问题描述:

从 Deepseek v4 看 AI 未来新格局

1.英伟达彻底丧失独大地位已为时不远,预估两年左右AI硬件会形成两极格局,即中美。

2.传统向量检索的 RAG 形式会很快淘汰,RAG 的趋势一定是以结构化数据为基础的各种变体,检索上引擎会完全由LLM驱动。

理由:
第一个问题:

英伟达护城河是 Cuda 与制程。

Cuda 所以为护城河,其关键一个因素要兼容各种软件平台,这是一份沉重的历史债,也是其最核心的护城河。但单看 LLM 的训练与推理这个单项,英伟达 Cuda 的护城河则浅得多得多。简单讲,完整的 Cuda 生态要兼容各种游戏、设计等场景,这些场景与 Cuda形成了深度耦合。这些各种场景往往个性化严重,涉及产商自己的各种技术债,例如各种特化的奇淫巧技与神奇 Bug 等,这些技术债形成的屎山代码在与 Cuda 的相互兼容进化中已经极难理解和维护了。

但抛开这些技术债,回归 LLM 本身的核心科学计算上,护城河可谓浅得一批,甚至具有大量因为兼容其它的屎山而导致的各种副作用。

在 R1 之后,Deepseek在科学计算上的创新可谓层出不穷,这些原本都是属于 Cuda 生态的份内工作,每一次都带来巨大的 LLM 训练和推理的收益。而 v4 直接运行在昇腾上,可以肯定,在 LLM 相关的科学计算上,Deepseek已经系统系统性掌握了其核心,并且在相当程度上已经超过了英伟达。

放在以前,即使掌握 Cuda 的科学计算体系,也很难在短时间建立起一个替代的体系。就像开发者会开发某个软件,但也不意味着能在短时间内凭借理解和记忆复刻出来。但是,编程 Agent 发展到现在,这个问题已经不是问题了。Codex、Claude code等编程 Agent 的工程逆向能力有目共睹,也就是说只要完全理解和掌握一个体系,重建出这个体系的效率已经发生了翻天覆地的变化,v4 运行在昇腾上已经足够说明这一点。

所以对于 AI 来说,Deepseek 对 Cuda 可谓是如履平地,以后 Cuda 大概要经常抄Deepseek 的作业,谁让 Deepsee k是大善人呢。至于制程,这根本没那么重要,国内掌握的制程已经足够应对,没有任何卡脖子风险。

第二个问题:

向量检索是一条死路,其在精度上的固有缺陷是没办法解决的,LLM 的理解才是唯一出路。LLM 的上下文长度又是其中的关键,v4 的能力已经基本具备了实现条件。何况将来的上下文还有更大的进步空间。

为什么说两极格局呢,即使能一超通吃也不推荐,一家独大并不科学。

imgv30211469e97db9-6ad4-40e6-a1f1-13455533748g1923×1080 219 KB

网友解答:
--【壹】--:

RAG不会消失,但向量检索会消失,因为准确性的问题。


--【贰】--:

希望如此,国内要是能解决算力问题那真的是一件天大的好事,国模未必打不过洋模(真正意义上的,不是只是跑分,虽然现在跑分也没完全打过)


--【叁】--:

事情还是朝着黄仁勋最不希望的方向发展了 中美硬件打擂台,英伟达不再一家独大,希望国模越来越好


--【肆】--:

时间、人、电力都在中国,未来不用太担心,目前最担心的是昇腾搞闭源,做不出行业标准


--【伍】--:

之前看X上有人阅读技术报告发现,DS v4训练两个月的数据,如果用openai的全部硬件来训练,只需要三十多个小时就够了。
当然实际上不可能openai全部硬件只用来训练,但是也可以看出两个公司的硬件差异有多巨大。


--【陆】--:

DeepSeekV4证明了降低推理成本很重要,别老惦记着堆量
几家国模能保证服务不降级,增量却降价吗
再编:
boost说狂加参数的问题,加参数是智商的根本,但是推理成本很重要,没有衡量好推理成本之前不要先低价套餐吸引人又降级服务质量,因为你吸引人的时候是明知道自己参数量多,推理成本高而去进行的自杀式营销,最后终要降级服务质量的
如何在提升模型参数量的同时,减少相对应推理的成本,让大参数量在实际服务中可行,是ds交出的答卷,我希望boost不要忽视这一客观贡献
我们要的是聪明的模型,但也是诚实的成本价格和服务质量,而不是把你骗进来卸磨杀驴,最后超售了,服务降级再哭惨,最后大家还得用更高的价格才能用上“满血”的模型
btw,本条没讨论上下文长度问题


--【柒】--:

这张图真好看,有蓝鲸鱼,也有ds发的那段话


--【捌】--:

是的 虽然我个人不喜欢华为 但不能否定华为在领域里做出的贡献 国模的算力问题如果能够得到解决 也不用被a出这样的公司一直恶心了…


--【玖】--:

可能还太保守了,AI也在一直进化,可能要不了两年。


--【拾】--:

感觉RAG不会消失,毕竟数据量大的话LLM还是处理不了的,感觉以后会变成RAG的过滤会更松,仅做相关过滤,然后由LLM准确找


--【拾壹】--:

我的意思是我们可以学习一下这个态度,相信自己所相信的,不要以别人的夸奖或者诽谤啊开始质疑或者激动。


--【拾贰】--:

用户和用户差别还是挺大的,用酒馆的ds3.2够用。coding的基本都选gpt和claude,最低的也glm5.1,
ds做不到满足所有人的需求(实际上也确实做不到),自己每一次有进步就行了,当然了,别人是夸是骂都很正常,我就很直白的说V4贵,但是夸有新技术也一样的

ds如果真因为外界评论影响到自己,那公司早就不用开了


--【拾叁】--:

从评论表情就能看得出来,有人点赞,有人看不起。但也就正应了那四句话,最后的那四句话。


--【拾肆】--:

好像也不是全部硬件吧,只是在建的那个数据中心估算出来目前已经能投入使用的所有计算卡


--【拾伍】--:

左上角的 DeepSeek Logo 显得很鬼畜啊……


--【拾陆】--:

过于乐观了,如果说谁能取代英伟达,那么只有谷歌,别忘了国产卡训练都才刚刚起步。模型有7-12个月的差距,但硬件差距是以年计算的,而且硬件还有生产的问题