关于google的gemma4
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
想问下现在的gemma4本地部署需要什么配置呢
网友解答:--【壹】--:
如果足够给力的话,这个size的模型很多人的设备可以跑起来,佬还有更深度的测试吗
、
--【贰】--:
我是用ollama跑的,我对这块不是特别熟,就是瞎玩
vllm我感觉好像比较重,也可能理解错了,没怎么对比过ollma/vllm有啥区别
openclaw 太重所以根本不能用,zeroclaw感觉合适,但是很不完善。
其他命令行的话没怎么测试。
有没有什么专门的测试帖子方案参考?
可以丢给AI来自己跑一遍测试
--【叁】--:
98d5eec9544646fa8907688ee9a1e321704×6494 674 KB
by Gemini 3.1 Pro Preview
--【肆】--:
e4b跑在nvidia jetson nano 8g上,配合zeroclaw,看起来还行。
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
想问下现在的gemma4本地部署需要什么配置呢
网友解答:--【壹】--:
如果足够给力的话,这个size的模型很多人的设备可以跑起来,佬还有更深度的测试吗
、
--【贰】--:
我是用ollama跑的,我对这块不是特别熟,就是瞎玩
vllm我感觉好像比较重,也可能理解错了,没怎么对比过ollma/vllm有啥区别
openclaw 太重所以根本不能用,zeroclaw感觉合适,但是很不完善。
其他命令行的话没怎么测试。
有没有什么专门的测试帖子方案参考?
可以丢给AI来自己跑一遍测试
--【叁】--:
98d5eec9544646fa8907688ee9a1e321704×6494 674 KB
by Gemini 3.1 Pro Preview
--【肆】--:
e4b跑在nvidia jetson nano 8g上,配合zeroclaw,看起来还行。

