进!来个deepseek投票🔎 以及看看佬们想法
- 内容介绍
- 文章标签
- 相关推荐
欢迎进来投票,每个人观感不同,欢迎每个佬
一天下来感觉多多少少佬友们都试过了吧,来简单做个测评投票,看看大家的观感如何!
使用过的佬友们可以根据自己体验进行投票!如果还没用的可以按查看其他人情况
- 非常棒!很喜欢
- 很好用
- 也还好
- 一般般而已
- 看看大家票数
- 非常棒!很喜欢
- 很好用
- 也还好
- 一般般而已
- 看看大家票数
欢迎评论进行些讨论
--【壹】--:
的确,1m这个还是不错的,就不论注意力可能越多的时候会越分散,而且对换比例的话是便宜的,就是虽然大部分佬用中转
--【贰】--:
前排! 想看看大家对ds的看法…因为我没有实际使用 没有什么发言权——但是评价好像是有好有坏,不知道大家是在什么情景下有什么看法呢?
当然了 如果有佬能分享RP相关的使用体验就更好了!
--【叁】--:
的确!佬写的好详细!
其实开源模型还达到这样真的挺不错的,flash便宜又有比上个模型还厉害些
--【肆】--:
v4flash真不错 速度快 智商也跟得上
--【伍】--:
之前就一直用ds的api接到claudecode中用,很快,改论文中文我觉得非常不错
不过就是上下文比较头疼,现在更改到1m,真的很爽。
大的结构设计还是codex,claude,不过一些小修小补,文字工作让ds接入cc用很不错
重点是相比claude,真的算便宜了,没有使用心理负担
--【陆】--:
继续补充:
- 由于参数体量减少,整个搭建的成本,和推理的速度会变得更快,这个很好理解。
- 参数体量的减少,会有更多的企业和个人会选择自己搭建,理由很简单,整个人类社会是金字塔结构,成本降低一半,绝对不是覆盖人数翻一倍这么简单,所以Flash才是绝大多数企业和个人的选择。
- 小体量在微调的时候,消耗的时间和算力也更少。以后不少的项目的基座模型,大概率要换成V4 Flash了。
--【柒】--:
还是把期望设的太高
哪怕一直想着说这次估计不会有太大进展
但还是希望看到r1那种突破
但是实际体验还是差了点
--【捌】--:
其实光从性能来看,V4 Pro确实是目前开源大模型最强的。
但是如果结合参数体量,API价格,推理速度来看。V4 Flash反而是最出众的。
238B的参数体量,只有Pro 1.6T的不到五分之一的体量,API价格也只有2块钱每百万TOKEN。但是它的表现却有Pro的90%~95%。
238B的参数相比去年的R1的671B,减少了超过50%,意味着部署的成本低了不止一半。
--【玖】--:
RP 方面,由于配套预设还没有合适的,因此文本有时会有哈八股,不过可以明显感觉到出现了新的文风,剧情推进也会更加积极一些,重复剧情设计的问题有所改善。
对于 coding 方面,目前普遍有指令遵循的问题,例如:不主动使用 skill 。加上价格贵,评价出现两极分化,如果相应的工具配套完善,DeepSeek 会给出很惊艳的结果。论坛里有佬按照 harness engineer 的原则得到了不错的结果
总之期待下半年的 pro 降价
--【拾】--:
deepseek有deepseek的文风哈哈哈,就是掉格式好苦
--【拾壹】--:
V4P不符合预期。
至少在酒馆里,4万Token左右就开始掉格式。
文风还行,但是具体的细节不如Gemini 3.1Pro和Claude OPUS
欢迎进来投票,每个人观感不同,欢迎每个佬
一天下来感觉多多少少佬友们都试过了吧,来简单做个测评投票,看看大家的观感如何!
使用过的佬友们可以根据自己体验进行投票!如果还没用的可以按查看其他人情况
- 非常棒!很喜欢
- 很好用
- 也还好
- 一般般而已
- 看看大家票数
- 非常棒!很喜欢
- 很好用
- 也还好
- 一般般而已
- 看看大家票数
欢迎评论进行些讨论
--【壹】--:
的确,1m这个还是不错的,就不论注意力可能越多的时候会越分散,而且对换比例的话是便宜的,就是虽然大部分佬用中转
--【贰】--:
前排! 想看看大家对ds的看法…因为我没有实际使用 没有什么发言权——但是评价好像是有好有坏,不知道大家是在什么情景下有什么看法呢?
当然了 如果有佬能分享RP相关的使用体验就更好了!
--【叁】--:
的确!佬写的好详细!
其实开源模型还达到这样真的挺不错的,flash便宜又有比上个模型还厉害些
--【肆】--:
v4flash真不错 速度快 智商也跟得上
--【伍】--:
之前就一直用ds的api接到claudecode中用,很快,改论文中文我觉得非常不错
不过就是上下文比较头疼,现在更改到1m,真的很爽。
大的结构设计还是codex,claude,不过一些小修小补,文字工作让ds接入cc用很不错
重点是相比claude,真的算便宜了,没有使用心理负担
--【陆】--:
继续补充:
- 由于参数体量减少,整个搭建的成本,和推理的速度会变得更快,这个很好理解。
- 参数体量的减少,会有更多的企业和个人会选择自己搭建,理由很简单,整个人类社会是金字塔结构,成本降低一半,绝对不是覆盖人数翻一倍这么简单,所以Flash才是绝大多数企业和个人的选择。
- 小体量在微调的时候,消耗的时间和算力也更少。以后不少的项目的基座模型,大概率要换成V4 Flash了。
--【柒】--:
还是把期望设的太高
哪怕一直想着说这次估计不会有太大进展
但还是希望看到r1那种突破
但是实际体验还是差了点
--【捌】--:
其实光从性能来看,V4 Pro确实是目前开源大模型最强的。
但是如果结合参数体量,API价格,推理速度来看。V4 Flash反而是最出众的。
238B的参数体量,只有Pro 1.6T的不到五分之一的体量,API价格也只有2块钱每百万TOKEN。但是它的表现却有Pro的90%~95%。
238B的参数相比去年的R1的671B,减少了超过50%,意味着部署的成本低了不止一半。
--【玖】--:
RP 方面,由于配套预设还没有合适的,因此文本有时会有哈八股,不过可以明显感觉到出现了新的文风,剧情推进也会更加积极一些,重复剧情设计的问题有所改善。
对于 coding 方面,目前普遍有指令遵循的问题,例如:不主动使用 skill 。加上价格贵,评价出现两极分化,如果相应的工具配套完善,DeepSeek 会给出很惊艳的结果。论坛里有佬按照 harness engineer 的原则得到了不错的结果
总之期待下半年的 pro 降价
--【拾】--:
deepseek有deepseek的文风哈哈哈,就是掉格式好苦
--【拾壹】--:
V4P不符合预期。
至少在酒馆里,4万Token左右就开始掉格式。
文风还行,但是具体的细节不如Gemini 3.1Pro和Claude OPUS

