进!来个deepseek投票🔎 以及看看佬们想法

2026-04-29 10:102阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

欢迎进来投票,每个人观感不同,欢迎每个佬

一天下来感觉多多少少佬友们都试过了吧,来简单做个测评投票,看看大家的观感如何!

使用过的佬友们可以根据自己体验进行投票!如果还没用的可以按查看其他人情况

你认为deepseek v4 flash
  • 非常棒!很喜欢
  • 很好用
  • 也还好
  • 一般般而已
  • 看看大家票数
0 投票人 你觉得deepseek v4 pro
  • 非常棒!很喜欢
  • 很好用
  • 也还好
  • 一般般而已
  • 看看大家票数
0 投票人


欢迎评论进行些讨论

网友解答:
--【壹】--:

的确,1m这个还是不错的,就不论注意力可能越多的时候会越分散,而且对换比例的话是便宜的,就是虽然大部分佬用中转


--【贰】--:

前排! 想看看大家对ds的看法…因为我没有实际使用 没有什么发言权——但是评价好像是有好有坏,不知道大家是在什么情景下有什么看法呢?

当然了 如果有佬能分享RP相关的使用体验就更好了!


--【叁】--:

的确!佬写的好详细!
其实开源模型还达到这样真的挺不错的,flash便宜又有比上个模型还厉害些


--【肆】--:

v4flash真不错 速度快 智商也跟得上


--【伍】--:

之前就一直用ds的api接到claudecode中用,很快,改论文中文我觉得非常不错
不过就是上下文比较头疼,现在更改到1m,真的很爽。
大的结构设计还是codex,claude,不过一些小修小补,文字工作让ds接入cc用很不错
重点是相比claude,真的算便宜了,没有使用心理负担


--【陆】--:

继续补充:

  1. 由于参数体量减少,整个搭建的成本,和推理的速度会变得更快,这个很好理解。
  2. 参数体量的减少,会有更多的企业和个人会选择自己搭建,理由很简单,整个人类社会是金字塔结构,成本降低一半,绝对不是覆盖人数翻一倍这么简单,所以Flash才是绝大多数企业和个人的选择。
  3. 小体量在微调的时候,消耗的时间和算力也更少。以后不少的项目的基座模型,大概率要换成V4 Flash了。

--【柒】--:

还是把期望设的太高
哪怕一直想着说这次估计不会有太大进展
但还是希望看到r1那种突破
但是实际体验还是差了点


--【捌】--:

其实光从性能来看,V4 Pro确实是目前开源大模型最强的。
但是如果结合参数体量,API价格,推理速度来看。V4 Flash反而是最出众的。

238B的参数体量,只有Pro 1.6T的不到五分之一的体量,API价格也只有2块钱每百万TOKEN。但是它的表现却有Pro的90%~95%。

238B的参数相比去年的R1的671B,减少了超过50%,意味着部署的成本低了不止一半。


--【玖】--:

RP 方面,由于配套预设还没有合适的,因此文本有时会有哈八股,不过可以明显感觉到出现了新的文风,剧情推进也会更加积极一些,重复剧情设计的问题有所改善。
对于 coding 方面,目前普遍有指令遵循的问题,例如:不主动使用 skill 。加上价格贵,评价出现两极分化,如果相应的工具配套完善,DeepSeek 会给出很惊艳的结果。论坛里有佬按照 harness engineer 的原则得到了不错的结果

总之期待下半年的 pro 降价


--【拾】--:

deepseek有deepseek的文风哈哈哈,就是掉格式好苦


--【拾壹】--:

V4P不符合预期。
至少在酒馆里,4万Token左右就开始掉格式。
文风还行,但是具体的细节不如Gemini 3.1Pro和Claude OPUS

问题描述:

欢迎进来投票,每个人观感不同,欢迎每个佬

一天下来感觉多多少少佬友们都试过了吧,来简单做个测评投票,看看大家的观感如何!

使用过的佬友们可以根据自己体验进行投票!如果还没用的可以按查看其他人情况

你认为deepseek v4 flash
  • 非常棒!很喜欢
  • 很好用
  • 也还好
  • 一般般而已
  • 看看大家票数
0 投票人 你觉得deepseek v4 pro
  • 非常棒!很喜欢
  • 很好用
  • 也还好
  • 一般般而已
  • 看看大家票数
0 投票人


欢迎评论进行些讨论

网友解答:
--【壹】--:

的确,1m这个还是不错的,就不论注意力可能越多的时候会越分散,而且对换比例的话是便宜的,就是虽然大部分佬用中转


--【贰】--:

前排! 想看看大家对ds的看法…因为我没有实际使用 没有什么发言权——但是评价好像是有好有坏,不知道大家是在什么情景下有什么看法呢?

当然了 如果有佬能分享RP相关的使用体验就更好了!


--【叁】--:

的确!佬写的好详细!
其实开源模型还达到这样真的挺不错的,flash便宜又有比上个模型还厉害些


--【肆】--:

v4flash真不错 速度快 智商也跟得上


--【伍】--:

之前就一直用ds的api接到claudecode中用,很快,改论文中文我觉得非常不错
不过就是上下文比较头疼,现在更改到1m,真的很爽。
大的结构设计还是codex,claude,不过一些小修小补,文字工作让ds接入cc用很不错
重点是相比claude,真的算便宜了,没有使用心理负担


--【陆】--:

继续补充:

  1. 由于参数体量减少,整个搭建的成本,和推理的速度会变得更快,这个很好理解。
  2. 参数体量的减少,会有更多的企业和个人会选择自己搭建,理由很简单,整个人类社会是金字塔结构,成本降低一半,绝对不是覆盖人数翻一倍这么简单,所以Flash才是绝大多数企业和个人的选择。
  3. 小体量在微调的时候,消耗的时间和算力也更少。以后不少的项目的基座模型,大概率要换成V4 Flash了。

--【柒】--:

还是把期望设的太高
哪怕一直想着说这次估计不会有太大进展
但还是希望看到r1那种突破
但是实际体验还是差了点


--【捌】--:

其实光从性能来看,V4 Pro确实是目前开源大模型最强的。
但是如果结合参数体量,API价格,推理速度来看。V4 Flash反而是最出众的。

238B的参数体量,只有Pro 1.6T的不到五分之一的体量,API价格也只有2块钱每百万TOKEN。但是它的表现却有Pro的90%~95%。

238B的参数相比去年的R1的671B,减少了超过50%,意味着部署的成本低了不止一半。


--【玖】--:

RP 方面,由于配套预设还没有合适的,因此文本有时会有哈八股,不过可以明显感觉到出现了新的文风,剧情推进也会更加积极一些,重复剧情设计的问题有所改善。
对于 coding 方面,目前普遍有指令遵循的问题,例如:不主动使用 skill 。加上价格贵,评价出现两极分化,如果相应的工具配套完善,DeepSeek 会给出很惊艳的结果。论坛里有佬按照 harness engineer 的原则得到了不错的结果

总之期待下半年的 pro 降价


--【拾】--:

deepseek有deepseek的文风哈哈哈,就是掉格式好苦


--【拾壹】--:

V4P不符合预期。
至少在酒馆里,4万Token左右就开始掉格式。
文风还行,但是具体的细节不如Gemini 3.1Pro和Claude OPUS