谷歌开源大模型 Gemma 4 官宣在即:参数量翻 4 倍
- 内容介绍
- 文章标签
- 相关推荐
image946×2332 445 KB
网友解答:--【壹】--:
Google不是发论文了,用技术让内存暴跌,也许32g内存能运行120B模型。
--【贰】--:
感觉google就是在降维打击。
--【叁】--:
关注一波
--【肆】--:
那是降低上下文压力吧,不是降低本身参数计算压力
--【伍】--:
发布出来最大不是31B吗?
--【陆】--:
https://x.com/demishassabis/status/2039489134465614068
--【柒】--:
感觉不错 期待一波
--【捌】--:
等待上线
--【玖】--:
也许是 2.5 flash 开源版吧。反正 gemma 3 是 1.5 flash
2.5 flash 如果弄出来也是好事
--【拾】--:
不期待了,毕竟谷大恶人都不能让我们好好蹬
--【拾壹】--:
蛤?不会吧,那价格不就上天了
--【拾贰】--:
潜伏一波
--【拾叁】--:
挺好的,上强度的复杂任务全靠Antigravity撑着了
--【拾肆】--:
120B 吗?GPT-OSS 既视感
--【拾伍】--:
3 flash 甚至怀疑是 T 级模型
--【拾陆】--:
这是换赛道了吧,之前一直搞端侧模型的
--【拾柒】--:
flash 120B 也太大了吧
--【拾捌】--:
120b怎么围堵
--【拾玖】--:
gemma一直是以端侧部署为重心,不清楚为什么搞这么大。
我更期待的是类似于gemma3n e4b这种类似物,才有端侧部署的意义
image946×2332 445 KB
网友解答:--【壹】--:
Google不是发论文了,用技术让内存暴跌,也许32g内存能运行120B模型。
--【贰】--:
感觉google就是在降维打击。
--【叁】--:
关注一波
--【肆】--:
那是降低上下文压力吧,不是降低本身参数计算压力
--【伍】--:
发布出来最大不是31B吗?
--【陆】--:
https://x.com/demishassabis/status/2039489134465614068
--【柒】--:
感觉不错 期待一波
--【捌】--:
等待上线
--【玖】--:
也许是 2.5 flash 开源版吧。反正 gemma 3 是 1.5 flash
2.5 flash 如果弄出来也是好事
--【拾】--:
不期待了,毕竟谷大恶人都不能让我们好好蹬
--【拾壹】--:
蛤?不会吧,那价格不就上天了
--【拾贰】--:
潜伏一波
--【拾叁】--:
挺好的,上强度的复杂任务全靠Antigravity撑着了
--【拾肆】--:
120B 吗?GPT-OSS 既视感
--【拾伍】--:
3 flash 甚至怀疑是 T 级模型
--【拾陆】--:
这是换赛道了吧,之前一直搞端侧模型的
--【拾柒】--:
flash 120B 也太大了吧
--【拾捌】--:
120b怎么围堵
--【拾玖】--:
gemma一直是以端侧部署为重心,不清楚为什么搞这么大。
我更期待的是类似于gemma3n e4b这种类似物,才有端侧部署的意义

