DeepSeek_V4 论文概览,主打高效,无多模态

2026-04-29 10:253阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

DeepSeek_V4.pdf

PixPin2026-04-2411-45-55923×569 95.8 KB
PixPin2026-04-2411-46-04922×597 95.3 KB
PixPin2026-04-2411-46-11918×382 67.4 KB
PixPin2026-04-2411-46-291050×672 71.7 KB
PixPin2026-04-2411-46-431071×681 55.2 KB
PixPin2026-04-2411-46-511091×467 47.4 KB

PixPin2026-04-2411-51-38833×626 106 KB

网友解答:
--【壹】--:

预留接口吧,
根据技术报告披露的一些细节,内部是有一些小模型的
检索这块3.2时期是一个小模型代理的
然后图片文字识别那块应该是另一个小模型


--【贰】--:

也算是某种意义的剑走偏锋了。kimi、glm那些是死磕coding能力,而DeepSeek就是死磕纯文字能力,也算是比较适合国模的一条路了,毕竟资源确实受限,先保证在主要方向上不掉队


--【叁】--:

我觉得应该缺数据,像国内多模态做得最好的是阿里,阿里应该是最不缺数据的


--【肆】--:

Deepseek V4 Flash 和 Pro 效果如何呀


--【伍】--:

多模态又缺席了吗?反而觉得有多模态才是更有效率呢


--【陆】--:

Deepseek官方说正在做,不知道要多久


--【柒】--:

没有coding plan,怕是测试我都测不起
GPT5.5价格翻倍也比用这个V4便宜


--【捌】--:

image1855×529 55.8 KB
这个好像无法下载,是哪个模型生成的,当事人本人吗


--【玖】--:

唔,deepseekV4终于发布了吗,与glm5.1相比怎么样?


--【拾】--:

PixPin2026-04-2411-46-511091×467 47.4 KB

没有啊,Deepseek也是着重coding的
发出来一堆coding的测试成绩


--【拾壹】--:

image1080×297 49.2 KB
一开始看那个 Deepseek 价格的时候,我还以为 Deepseek V4 Pro 输入只要一块钱。。。没看见 12


--【拾贰】--:

PixPin2026-04-2412-22-16796×709 132 KB


--【拾叁】--:

Gemini 3.1 Pro生成的
可以下载的,这是huggingface的链接

PixPin2026-04-2412-11-53958×899 114 KB


--【拾肆】--:

唉,这才要有新的日经帖了,以后就是每天期望下周发多模态


--【拾伍】--:

又没多模态啊 ,我真的要受不了嘞
那之前chat端的视觉理解是什么鬼


--【拾陆】--:

我没有api,谁来赞助一下
。。。


--【拾柒】--:

还真是,也不知道deepseek有考虑出一个token plan吗,但感觉现在这个价格已经压的比较低了


--【拾捌】--:

这个我了解,coding也是文字能力的一种嘛,或者我应该换个词是文本能力,是相对于多模态说的


--【拾玖】--:

那些27%,10%是只有v3.2的这个比例?

标签:人工智能
问题描述:

DeepSeek_V4.pdf

PixPin2026-04-2411-45-55923×569 95.8 KB
PixPin2026-04-2411-46-04922×597 95.3 KB
PixPin2026-04-2411-46-11918×382 67.4 KB
PixPin2026-04-2411-46-291050×672 71.7 KB
PixPin2026-04-2411-46-431071×681 55.2 KB
PixPin2026-04-2411-46-511091×467 47.4 KB

PixPin2026-04-2411-51-38833×626 106 KB

网友解答:
--【壹】--:

预留接口吧,
根据技术报告披露的一些细节,内部是有一些小模型的
检索这块3.2时期是一个小模型代理的
然后图片文字识别那块应该是另一个小模型


--【贰】--:

也算是某种意义的剑走偏锋了。kimi、glm那些是死磕coding能力,而DeepSeek就是死磕纯文字能力,也算是比较适合国模的一条路了,毕竟资源确实受限,先保证在主要方向上不掉队


--【叁】--:

我觉得应该缺数据,像国内多模态做得最好的是阿里,阿里应该是最不缺数据的


--【肆】--:

Deepseek V4 Flash 和 Pro 效果如何呀


--【伍】--:

多模态又缺席了吗?反而觉得有多模态才是更有效率呢


--【陆】--:

Deepseek官方说正在做,不知道要多久


--【柒】--:

没有coding plan,怕是测试我都测不起
GPT5.5价格翻倍也比用这个V4便宜


--【捌】--:

image1855×529 55.8 KB
这个好像无法下载,是哪个模型生成的,当事人本人吗


--【玖】--:

唔,deepseekV4终于发布了吗,与glm5.1相比怎么样?


--【拾】--:

PixPin2026-04-2411-46-511091×467 47.4 KB

没有啊,Deepseek也是着重coding的
发出来一堆coding的测试成绩


--【拾壹】--:

image1080×297 49.2 KB
一开始看那个 Deepseek 价格的时候,我还以为 Deepseek V4 Pro 输入只要一块钱。。。没看见 12


--【拾贰】--:

PixPin2026-04-2412-22-16796×709 132 KB


--【拾叁】--:

Gemini 3.1 Pro生成的
可以下载的,这是huggingface的链接

PixPin2026-04-2412-11-53958×899 114 KB


--【拾肆】--:

唉,这才要有新的日经帖了,以后就是每天期望下周发多模态


--【拾伍】--:

又没多模态啊 ,我真的要受不了嘞
那之前chat端的视觉理解是什么鬼


--【拾陆】--:

我没有api,谁来赞助一下
。。。


--【拾柒】--:

还真是,也不知道deepseek有考虑出一个token plan吗,但感觉现在这个价格已经压的比较低了


--【拾捌】--:

这个我了解,coding也是文字能力的一种嘛,或者我应该换个词是文本能力,是相对于多模态说的


--【拾玖】--:

那些27%,10%是只有v3.2的这个比例?

标签:人工智能