我们真的需要那么强的模型性能吗?怎么样用起来最舒服呢?

2026-04-11 14:431阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

毫无疑问像Opus4.6这种顶尖性能的模型在编程时处理复杂以及细节问题上会有很高的效率,但是我们需要考虑到大部分人使用AI并非是用来vibe,即使是写程序的,很多时候使用AI也可能不是在coding。

我觉得现在衡量AI是否好用,除了要看那些benchmark,还要看“外设”,拿豆包和DeepSeek来说,虽然豆包的模型性能不如deepseek,但是其面向C端的定位让它的易用性很好,无论是搜索还是文档对话。

所以我在想,能否将一些高级模型的API接入一些能力强大的本地客户端来达到好用,性能高?Cherry Studio我试过了,它的文档库我感觉还不是很好用。搜索能力也一般。。。。。

网友解答:
--【壹】--:

那个图标里面的人像,我自己真的看不来,大大的眼睛,很诡异,像鬼一样的感觉

有点偏了,不过介于可用可不用之间,因为这个原因我都不敢放在手机上,也就不用了


--【贰】--:

我的一个需求是时效性较强的搜索。我觉得grok得益于x的原生接入,在搜索方面现在是遥遥领先的,新出的4.2multiple agents也挺好用。 至于国产模型,其实我给我妈推荐的也是豆包,门槛低也是很重要的。


--【叁】--:

你看最近龙虾很火吗?很火!

你看龙虾好用吗?不好用!(不会真有人觉得龙虾很好用吧 )

那它为什么不好用呢?还是现在的AI太烧钱了。

厂商几百万甚至上亿美元的投入才换来如今的模型性能,而用户几乎无法私人部署好用的大模型(低于30b的大模型真的能用吗,高于30b的大模型除了富哥真的有人能部署的起吗)

而龙虾恰恰因为其高度依赖于AI的模型性能而特别消耗token,其本质上并没有任何超出Claude Code的能力,只是用户群体变了,厂商发现终于能出圈了,终于能赚到程序员群体外部的钱了,于是开始大力推广

但就算是各大云厂商的完整AI模型,体验也不尽如人意,站内"AI『不小心』删除个人数据"的案例比比皆是,这些都是因为提示词的问题吗?不,这恰恰证明AI还不够强

(用毕导的话说就是相当于小学二年级的水平 )

现在我们回到题目:

我们真的需要那么强的模型性能吗?

我的回答是:需要,不仅需要而且要达到单张消费级显卡就可以流畅部署相当于Deepseek R1满血版的AI大模型性能的强度,才能认为是(暴论)

至于:

Micraow:

即使是写程序的,很多时候使用AI也可能不是在coding

不知道你是怎么得出这个结论的,程序员用AI不写代码那写什么呢?要知道AI最开始的目标用户就是程序员,现在AI发展迅猛也是因为程序员群体需要更智能的模型来完成更复杂的代码


--【肆】--:

我感觉很可爱啊


--【伍】--:

你是想一遍过呢,还是反反复复和AI红温也改不好呢?
这就是差距


--【陆】--:

还有很多时候需要完成水课的任务。。。


--【柒】--:

???这啥啊??


--【捌】--:

需要,就像有佬说用了claude4.6opus就再也回不去了 ;

物尽其用呗,
编程:cc、codex对应自家模型
搜索:grok、豆包
输入法/asr:豆包、qwen
绘图/视频:nano banana/seedance2.0
等等


--【玖】--:

大模型是锯齿状智能,不同方向能力不一,有的模型写C、Java很厉害,碰到Python直接抓瞎,可现实任务看的是短板,短板不行流程跑不通,所以实际开发上为了省事都会争取上最强的模型
最强的本地客户端就是ClaudeCode和opencode,搜索能力就调用SKILL或者MCP实现


--【拾】--:

如果模型能力低,那就很有可能出现胡编乱造的问题,这样怎么能够信任模型能把工作干好干对呢,所以追求最新最强模型是必然的,省心省力


--【拾壹】--:

长得好看也很重要,豆包那个图标每次我去看,都联想到鬼片,真的不敢安装到手机上

现在一提到,又联想起来了,


--【拾贰】--:

这就是现在流行的harness engineering了吧


--【拾叁】--:

另外,豆包2.0pro其实是强于DeepSeek V3基座的


--【拾肆】--:

我想说的是除了编程以外的一些应用场景,比如我现在在学数学分析,那我就希望能像chatgpt那样,把我的课件丢到项目里,然后用“学习与探索”来学。


--【拾伍】--:

关键是用起来很麻烦,我一直在用的是opencode的插件oh-my-opencode,多个模型协作,当然好,那你来源怎么搞?全部走官方api?claude模型和gpt模型能跑的你发昏。。。 这次gpt被打,基本上就用不了,之前都是大多数用gpt来承担任务的。


--【拾陆】--:

我只觉得豆包很土


--【拾柒】--:

阻碍我用的豆包原因只有两个,一个是名字太唐,一个是logo太唐,曾经一段时间豆包的模型在好几个榜单上都领先,我前公司引入AI处理数据用的就是豆包(但是实际效果似乎不太好)

问题描述:

毫无疑问像Opus4.6这种顶尖性能的模型在编程时处理复杂以及细节问题上会有很高的效率,但是我们需要考虑到大部分人使用AI并非是用来vibe,即使是写程序的,很多时候使用AI也可能不是在coding。

我觉得现在衡量AI是否好用,除了要看那些benchmark,还要看“外设”,拿豆包和DeepSeek来说,虽然豆包的模型性能不如deepseek,但是其面向C端的定位让它的易用性很好,无论是搜索还是文档对话。

所以我在想,能否将一些高级模型的API接入一些能力强大的本地客户端来达到好用,性能高?Cherry Studio我试过了,它的文档库我感觉还不是很好用。搜索能力也一般。。。。。

网友解答:
--【壹】--:

那个图标里面的人像,我自己真的看不来,大大的眼睛,很诡异,像鬼一样的感觉

有点偏了,不过介于可用可不用之间,因为这个原因我都不敢放在手机上,也就不用了


--【贰】--:

我的一个需求是时效性较强的搜索。我觉得grok得益于x的原生接入,在搜索方面现在是遥遥领先的,新出的4.2multiple agents也挺好用。 至于国产模型,其实我给我妈推荐的也是豆包,门槛低也是很重要的。


--【叁】--:

你看最近龙虾很火吗?很火!

你看龙虾好用吗?不好用!(不会真有人觉得龙虾很好用吧 )

那它为什么不好用呢?还是现在的AI太烧钱了。

厂商几百万甚至上亿美元的投入才换来如今的模型性能,而用户几乎无法私人部署好用的大模型(低于30b的大模型真的能用吗,高于30b的大模型除了富哥真的有人能部署的起吗)

而龙虾恰恰因为其高度依赖于AI的模型性能而特别消耗token,其本质上并没有任何超出Claude Code的能力,只是用户群体变了,厂商发现终于能出圈了,终于能赚到程序员群体外部的钱了,于是开始大力推广

但就算是各大云厂商的完整AI模型,体验也不尽如人意,站内"AI『不小心』删除个人数据"的案例比比皆是,这些都是因为提示词的问题吗?不,这恰恰证明AI还不够强

(用毕导的话说就是相当于小学二年级的水平 )

现在我们回到题目:

我们真的需要那么强的模型性能吗?

我的回答是:需要,不仅需要而且要达到单张消费级显卡就可以流畅部署相当于Deepseek R1满血版的AI大模型性能的强度,才能认为是(暴论)

至于:

Micraow:

即使是写程序的,很多时候使用AI也可能不是在coding

不知道你是怎么得出这个结论的,程序员用AI不写代码那写什么呢?要知道AI最开始的目标用户就是程序员,现在AI发展迅猛也是因为程序员群体需要更智能的模型来完成更复杂的代码


--【肆】--:

我感觉很可爱啊


--【伍】--:

你是想一遍过呢,还是反反复复和AI红温也改不好呢?
这就是差距


--【陆】--:

还有很多时候需要完成水课的任务。。。


--【柒】--:

???这啥啊??


--【捌】--:

需要,就像有佬说用了claude4.6opus就再也回不去了 ;

物尽其用呗,
编程:cc、codex对应自家模型
搜索:grok、豆包
输入法/asr:豆包、qwen
绘图/视频:nano banana/seedance2.0
等等


--【玖】--:

大模型是锯齿状智能,不同方向能力不一,有的模型写C、Java很厉害,碰到Python直接抓瞎,可现实任务看的是短板,短板不行流程跑不通,所以实际开发上为了省事都会争取上最强的模型
最强的本地客户端就是ClaudeCode和opencode,搜索能力就调用SKILL或者MCP实现


--【拾】--:

如果模型能力低,那就很有可能出现胡编乱造的问题,这样怎么能够信任模型能把工作干好干对呢,所以追求最新最强模型是必然的,省心省力


--【拾壹】--:

长得好看也很重要,豆包那个图标每次我去看,都联想到鬼片,真的不敢安装到手机上

现在一提到,又联想起来了,


--【拾贰】--:

这就是现在流行的harness engineering了吧


--【拾叁】--:

另外,豆包2.0pro其实是强于DeepSeek V3基座的


--【拾肆】--:

我想说的是除了编程以外的一些应用场景,比如我现在在学数学分析,那我就希望能像chatgpt那样,把我的课件丢到项目里,然后用“学习与探索”来学。


--【拾伍】--:

关键是用起来很麻烦,我一直在用的是opencode的插件oh-my-opencode,多个模型协作,当然好,那你来源怎么搞?全部走官方api?claude模型和gpt模型能跑的你发昏。。。 这次gpt被打,基本上就用不了,之前都是大多数用gpt来承担任务的。


--【拾陆】--:

我只觉得豆包很土


--【拾柒】--:

阻碍我用的豆包原因只有两个,一个是名字太唐,一个是logo太唐,曾经一段时间豆包的模型在好几个榜单上都领先,我前公司引入AI处理数据用的就是豆包(但是实际效果似乎不太好)