谷歌开源大模型 Gemma 4 官宣在即:参数量翻 4 倍

2026-04-11 12:031阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image946×2332 445 KB

网友解答:
--【壹】--:

Google不是发论文了,用技术让内存暴跌,也许32g内存能运行120B模型。


--【贰】--:

感觉google就是在降维打击。


--【叁】--:

关注一波


--【肆】--:

那是降低上下文压力吧,不是降低本身参数计算压力


--【伍】--:

发布出来最大不是31B吗?


--【陆】--:

https://x.com/demishassabis/status/2039489134465614068


--【柒】--:

感觉不错 期待一波


--【捌】--:

等待上线


--【玖】--:

也许是 2.5 flash 开源版吧。反正 gemma 3 是 1.5 flash

2.5 flash 如果弄出来也是好事


--【拾】--:

不期待了,毕竟谷大恶人都不能让我们好好蹬


--【拾壹】--:

蛤?不会吧,那价格不就上天了


--【拾贰】--:

潜伏一波


--【拾叁】--:

挺好的,上强度的复杂任务全靠Antigravity撑着了


--【拾肆】--:

120B 吗?GPT-OSS 既视感


--【拾伍】--:

3 flash 甚至怀疑是 T 级模型


--【拾陆】--:

这是换赛道了吧,之前一直搞端侧模型的


--【拾柒】--:

flash 120B 也太大了吧


--【拾捌】--:

120b怎么围堵


--【拾玖】--:

gemma一直是以端侧部署为重心,不清楚为什么搞这么大。
我更期待的是类似于gemma3n e4b这种类似物,才有端侧部署的意义

标签:人工智能
问题描述:

image946×2332 445 KB

网友解答:
--【壹】--:

Google不是发论文了,用技术让内存暴跌,也许32g内存能运行120B模型。


--【贰】--:

感觉google就是在降维打击。


--【叁】--:

关注一波


--【肆】--:

那是降低上下文压力吧,不是降低本身参数计算压力


--【伍】--:

发布出来最大不是31B吗?


--【陆】--:

https://x.com/demishassabis/status/2039489134465614068


--【柒】--:

感觉不错 期待一波


--【捌】--:

等待上线


--【玖】--:

也许是 2.5 flash 开源版吧。反正 gemma 3 是 1.5 flash

2.5 flash 如果弄出来也是好事


--【拾】--:

不期待了,毕竟谷大恶人都不能让我们好好蹬


--【拾壹】--:

蛤?不会吧,那价格不就上天了


--【拾贰】--:

潜伏一波


--【拾叁】--:

挺好的,上强度的复杂任务全靠Antigravity撑着了


--【拾肆】--:

120B 吗?GPT-OSS 既视感


--【拾伍】--:

3 flash 甚至怀疑是 T 级模型


--【拾陆】--:

这是换赛道了吧,之前一直搞端侧模型的


--【拾柒】--:

flash 120B 也太大了吧


--【拾捌】--:

120b怎么围堵


--【拾玖】--:

gemma一直是以端侧部署为重心,不清楚为什么搞这么大。
我更期待的是类似于gemma3n e4b这种类似物,才有端侧部署的意义

标签:人工智能