【大家薅老黄的羊毛】开源模型那家强?网友用脚投票

2026-04-13 12:420阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image659×824 73 KB
image1015×829 219 KB
用qwen3.5 397b时不时卡住,只能用122b,突然想是不是应该避开大部队,看看哪些过于热门就不要去用了
然后用日均调用排了哥序,选的国产+google
结果排下来前二还是牛逼,难道是服务器布置多?
另外是不是第三位的参数太大,老是卡,所以大家选择第一第二用的多,哈哈。不过好像kimi2.5 参数也是上亿吧
(像我后来索性直接用第四位的122b去了,可惜一直搞不定cc switch里的调用老黄的api)

另外gemma4 也挺看好的,目前第九位,而且才上架9天呢
然后本地4090也布置了gemma4:26b的,基本占满显存,只能作为备用方案,ai用的爽,参数还是得大

网友解答:
--【壹】--:

minimax2.5 qwen3.5都在用,qwen那个貌似很慢,glm5很牛吗?还没试过


--【贰】--:

没法接老黄的api,我在本地试过qwen 2.5 code ,它没法调用搜索工具,没法查天气
而gemma4 4b就能查天气,
感觉就是两个年代的模型了, skill都不一样
国产也就glm kimi minimax qwen 再差点人家都不用你,看看deepseek排哪去了


--【叁】--: 海木:

ai用的爽,参数还是得大

确实,一些小模型直接流口水用不了,跟参数量大的模型没法比

标签:人工智能
问题描述:

image659×824 73 KB
image1015×829 219 KB
用qwen3.5 397b时不时卡住,只能用122b,突然想是不是应该避开大部队,看看哪些过于热门就不要去用了
然后用日均调用排了哥序,选的国产+google
结果排下来前二还是牛逼,难道是服务器布置多?
另外是不是第三位的参数太大,老是卡,所以大家选择第一第二用的多,哈哈。不过好像kimi2.5 参数也是上亿吧
(像我后来索性直接用第四位的122b去了,可惜一直搞不定cc switch里的调用老黄的api)

另外gemma4 也挺看好的,目前第九位,而且才上架9天呢
然后本地4090也布置了gemma4:26b的,基本占满显存,只能作为备用方案,ai用的爽,参数还是得大

网友解答:
--【壹】--:

minimax2.5 qwen3.5都在用,qwen那个貌似很慢,glm5很牛吗?还没试过


--【贰】--:

没法接老黄的api,我在本地试过qwen 2.5 code ,它没法调用搜索工具,没法查天气
而gemma4 4b就能查天气,
感觉就是两个年代的模型了, skill都不一样
国产也就glm kimi minimax qwen 再差点人家都不用你,看看deepseek排哪去了


--【叁】--: 海木:

ai用的爽,参数还是得大

确实,一些小模型直接流口水用不了,跟参数量大的模型没法比

标签:人工智能