【讨论】破限版Gemma4怎么样?大佬们有没有用过的
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
huggingface.co
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
coder3101/gemma-4-31B-it-heretic · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
rt,只有31B的,多大显存能布置呀。比起国产开源大模型值得搞吗
网友解答:--【壹】--:
这玩意能运行在最低什么版本的iPhone上?
--【贰】--:
这个量级应该跑不了
--【叁】--:
站内有人跑过,可以搜一下,我记得12G就可以玩26B的
我个人跑的gemma-4:26B-A4B-it-UD-Q4_K_M这个版本 4060 8G
--【肆】--:
粗略看了一下,确实跑不了,小点的模型用来当翻译软件或离线OCR好像还可以
--【伍】--:
看评测数据稍逊 Qwen3.5-27B
--【陆】--:
还是太小了呀,这个参数
拿来跑跑沉浸式翻译或许可以
问题描述:
huggingface.co
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
coder3101/gemma-4-31B-it-heretic · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
rt,只有31B的,多大显存能布置呀。比起国产开源大模型值得搞吗
网友解答:--【壹】--:
这玩意能运行在最低什么版本的iPhone上?
--【贰】--:
这个量级应该跑不了
--【叁】--:
站内有人跑过,可以搜一下,我记得12G就可以玩26B的
我个人跑的gemma-4:26B-A4B-it-UD-Q4_K_M这个版本 4060 8G
--【肆】--:
粗略看了一下,确实跑不了,小点的模型用来当翻译软件或离线OCR好像还可以
--【伍】--:
看评测数据稍逊 Qwen3.5-27B
--【陆】--:
还是太小了呀,这个参数
拿来跑跑沉浸式翻译或许可以

