各位佬,本地模型养龙虾用qwen3.5好还是gemma4好
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
本地模型养龙虾qwen3.5和gemma4哪个好?
网友解答:--【壹】--:
qwen3.5 和 gemma4需要什么配置
--【贰】--:
可以的,3.5除了elo均强于gemma4,而且主要看你本地什么配置,跑dense还是moe
--【叁】--:
老实说小模型完龙虾不就聋又瞎了吗。不怎么看好
--【肆】--:
本地部署,多少b,说实话没个几十g显存加几十g内存的配置的话,还是用api算了
--【伍】--:
本身本地模型就是慢、小,碰到这个token大户 更是一点反应都没有,我碰到好几个windows都是这样
--【陆】--:
现在很多模型都是针对龙虾进行了工具训练等等,开源模型很多本地卡不够用着也不舒心。
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
本地模型养龙虾qwen3.5和gemma4哪个好?
网友解答:--【壹】--:
qwen3.5 和 gemma4需要什么配置
--【贰】--:
可以的,3.5除了elo均强于gemma4,而且主要看你本地什么配置,跑dense还是moe
--【叁】--:
老实说小模型完龙虾不就聋又瞎了吗。不怎么看好
--【肆】--:
本地部署,多少b,说实话没个几十g显存加几十g内存的配置的话,还是用api算了
--【伍】--:
本身本地模型就是慢、小,碰到这个token大户 更是一点反应都没有,我碰到好几个windows都是这样
--【陆】--:
现在很多模型都是针对龙虾进行了工具训练等等,开源模型很多本地卡不够用着也不舒心。

