我们真的需要那么强的模型性能吗?怎么样用起来最舒服呢?
- 内容介绍
- 文章标签
- 相关推荐
毫无疑问像Opus4.6这种顶尖性能的模型在编程时处理复杂以及细节问题上会有很高的效率,但是我们需要考虑到大部分人使用AI并非是用来vibe,即使是写程序的,很多时候使用AI也可能不是在coding。
我觉得现在衡量AI是否好用,除了要看那些benchmark,还要看“外设”,拿豆包和DeepSeek来说,虽然豆包的模型性能不如deepseek,但是其面向C端的定位让它的易用性很好,无论是搜索还是文档对话。
所以我在想,能否将一些高级模型的API接入一些能力强大的本地客户端来达到好用,性能高?Cherry Studio我试过了,它的文档库我感觉还不是很好用。搜索能力也一般。。。。。
网友解答:--【壹】--:
那个图标里面的人像,我自己真的看不来,大大的眼睛,很诡异,像鬼一样的感觉
有点偏了,不过介于可用可不用之间,因为这个原因我都不敢放在手机上,也就不用了
--【贰】--:
我的一个需求是时效性较强的搜索。我觉得grok得益于x的原生接入,在搜索方面现在是遥遥领先的,新出的4.2multiple agents也挺好用。 至于国产模型,其实我给我妈推荐的也是豆包,门槛低也是很重要的。
--【叁】--:
你看最近龙虾很火吗?很火!
你看龙虾好用吗?不好用!(不会真有人觉得龙虾很好用吧 )
那它为什么不好用呢?还是现在的AI太烧钱了。
毫无疑问像Opus4.6这种顶尖性能的模型在编程时处理复杂以及细节问题上会有很高的效率,但是我们需要考虑到大部分人使用AI并非是用来vibe,即使是写程序的,很多时候使用AI也可能不是在coding。
我觉得现在衡量AI是否好用,除了要看那些benchmark,还要看“外设”,拿豆包和DeepSeek来说,虽然豆包的模型性能不如deepseek,但是其面向C端的定位让它的易用性很好,无论是搜索还是文档对话。
所以我在想,能否将一些高级模型的API接入一些能力强大的本地客户端来达到好用,性能高?Cherry Studio我试过了,它的文档库我感觉还不是很好用。搜索能力也一般。。。。。
网友解答:--【壹】--:
那个图标里面的人像,我自己真的看不来,大大的眼睛,很诡异,像鬼一样的感觉
有点偏了,不过介于可用可不用之间,因为这个原因我都不敢放在手机上,也就不用了
--【贰】--:
我的一个需求是时效性较强的搜索。我觉得grok得益于x的原生接入,在搜索方面现在是遥遥领先的,新出的4.2multiple agents也挺好用。 至于国产模型,其实我给我妈推荐的也是豆包,门槛低也是很重要的。
--【叁】--:
你看最近龙虾很火吗?很火!
你看龙虾好用吗?不好用!(不会真有人觉得龙虾很好用吧 )
那它为什么不好用呢?还是现在的AI太烧钱了。

