Deepseek V4 对比 GPT Claude 初体验

2026-04-29 09:493阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

gpt plus / claude pro 订阅用户

TLDR 个人感觉

有gpt plus的基本不用考虑V4
有claude pro平时只用sonnet的可以考虑替换
据说V4 pro后训练还没有完成 等待正式版

V4 接 opencode感觉效果一般 接cc很好
同一个复杂的cpu throttling debug问题

  • gpt 5.4 印象:速度快 智商高 但是代码风格品味不行 到处拉。此次问题:第一轮笃定错误方向 连续多轮追问顺利给出进一步验证思路 最终定位到具体问题 就是那种不管你怎么追问都能稳稳拖住你的感觉
  • sonnet 垃圾 不动脑子 平时拿来写代码一遍不是最优解 浪费token
  • opus 印象:速度稍慢 写代码还可以 此次问题::第一遍给出了正确的方向之一,但是偷懒不愿意主动看其他日志,想连续问直接 5h limit
  • V4 pro max:印象:不偷懒,恢复内容最长,代码风格品味一般,知识广;此次问题:第一轮给出错误方向,连续追问没有主动给出其他排查方案,但是回答得很细,给的几个可能性蒙对了一个,但是调用工具太慢,效率不够,看csv文件写一大坨python,gpt很快就看完了,v4要两倍时间。速度太慢,没测完。而且价格很美丽,不到十轮对话花了7块钱,还没查出来。

纯粹个人体验,这个bug本来就很难查,不具备代表性,仅仅分享下体验感受和吐槽下sonnet

网友解答:
--【壹】--:

其实,我觉得,sonnet 真不如glm-5.1


--【贰】--:

开 max 了,比 sonnet 强我是信的。

等一手 v4 正式版,就不用买 claude pro 了。

gpt 5.4 + v4 pro 还是挺合适的。


--【叁】--:

评价为拉中拉, claudepro 真的是食之无味,弃之可惜。


--【肆】--:

我是百思不得其解,kimi都能上,为啥deepseek不上多模态么,把技能点数都加在聊天上了,就不考虑考虑点点别的?


--【伍】--:

感觉是现在opencode对于deepseek v4的思维回传支持还不太好。而且据说v4 必须开max才能比较能打。


--【陆】--:

v4还得开max吧,我昨天测试查个简单的bug,v4 flash找的比较快,还会帮我修好,v4 pro也是,但是多花了一些时间和请求次数,感觉小问题没必要用v4 pro了


--【柒】--:

deepseek V4 pro max上多模态了么?


--【捌】--:

主要是 v4pro 的速度比 gpt 和 claude 慢太多

标签:人工智能
问题描述:

gpt plus / claude pro 订阅用户

TLDR 个人感觉

有gpt plus的基本不用考虑V4
有claude pro平时只用sonnet的可以考虑替换
据说V4 pro后训练还没有完成 等待正式版

V4 接 opencode感觉效果一般 接cc很好
同一个复杂的cpu throttling debug问题

  • gpt 5.4 印象:速度快 智商高 但是代码风格品味不行 到处拉。此次问题:第一轮笃定错误方向 连续多轮追问顺利给出进一步验证思路 最终定位到具体问题 就是那种不管你怎么追问都能稳稳拖住你的感觉
  • sonnet 垃圾 不动脑子 平时拿来写代码一遍不是最优解 浪费token
  • opus 印象:速度稍慢 写代码还可以 此次问题::第一遍给出了正确的方向之一,但是偷懒不愿意主动看其他日志,想连续问直接 5h limit
  • V4 pro max:印象:不偷懒,恢复内容最长,代码风格品味一般,知识广;此次问题:第一轮给出错误方向,连续追问没有主动给出其他排查方案,但是回答得很细,给的几个可能性蒙对了一个,但是调用工具太慢,效率不够,看csv文件写一大坨python,gpt很快就看完了,v4要两倍时间。速度太慢,没测完。而且价格很美丽,不到十轮对话花了7块钱,还没查出来。

纯粹个人体验,这个bug本来就很难查,不具备代表性,仅仅分享下体验感受和吐槽下sonnet

网友解答:
--【壹】--:

其实,我觉得,sonnet 真不如glm-5.1


--【贰】--:

开 max 了,比 sonnet 强我是信的。

等一手 v4 正式版,就不用买 claude pro 了。

gpt 5.4 + v4 pro 还是挺合适的。


--【叁】--:

评价为拉中拉, claudepro 真的是食之无味,弃之可惜。


--【肆】--:

我是百思不得其解,kimi都能上,为啥deepseek不上多模态么,把技能点数都加在聊天上了,就不考虑考虑点点别的?


--【伍】--:

感觉是现在opencode对于deepseek v4的思维回传支持还不太好。而且据说v4 必须开max才能比较能打。


--【陆】--:

v4还得开max吧,我昨天测试查个简单的bug,v4 flash找的比较快,还会帮我修好,v4 pro也是,但是多花了一些时间和请求次数,感觉小问题没必要用v4 pro了


--【柒】--:

deepseek V4 pro max上多模态了么?


--【捌】--:

主要是 v4pro 的速度比 gpt 和 claude 慢太多

标签:人工智能