Gemma 4已开源上线(权重)
- 内容介绍
- 文章标签
- 相关推荐
Gemma 4 - a google Collection
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Gemma 4: Byte for byte, the most capable open models
Gemma 4: our most intelligent open models to date, purpose-built for advanced reasoning and agentic workflows.
Gemma 4
Our most intelligent open models, built from Gemini 3 research.
Gemini Developer API pricing | Gemini API | Google AI for Developers
Gemini Developer API Pricing
177514588794524516706537543819341000×562 31.4 KB
Bring state-of-the-art agentic skills to the edge with Gemma 4- Google...
Google DeepMind introduces Gemma 4, a family of state-of-the-art open models designed for on-device agentic workflows. Learn how to leverage multi-step planning, 140+ language support, and LiteRT-LM to build powerful, autonomous AI experiences across...
image-191159×897 53 KB
Screenshot_20260403-0038151017×483 47.2 KB
今天,我们正式推出 Gemma 4 —— 这是我们迄今为止最智能的开放模型系列。
Gemma 4 专为高级推理和代理工作流(Agentic Workflows)而打造,实现了前所未有的“单位参数智能”。这一突破性进展建立在惊人的社区动力之上:自第一代发布以来,开发者对 Gemma 的下载量已超过 4 亿次,构建了一个拥有 10 万多个变体的活跃 “Gemmaverse”。我们密切关注创新者在拓展 AI 边界时的真实需求,Gemma 4 便是我们的答案:通过 Apache 2.0 许可证,让突破性的能力变得广泛可用。
基于与 Gemini 3 相同的世界级研究和技术构建,Gemma 4 是您可以在自有硬件上运行的最强大的模型系列。它们与 Gemini 模型相辅相成,为开发者提供了业界最强大的开放与专有工具组合。
行业领先的能力与移动优先的 AI
我们发布了四种尺寸的 Gemma 4:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 以及 31B 稠密模型 (Dense)。
全系列模型已超越了简单的聊天功能,能够处理复杂的逻辑和代理工作流。我们的大尺寸模型在同级别中拥有顶尖性能:31B 模型目前在行业标准的 Arena AI 文本排行榜上排名全球开放模型第 3 位,26B 模型位列第 6。在榜单中,Gemma 4 的表现甚至超越了参数量为其 20 倍的模型。
对于开发者而言,这种全新的单位参数智能水平意味着能以显著降低的硬件开销实现前沿能力。在边缘侧,我们的 E2B 和 E4B 模型重新定义了设备端的实用性,优先考虑多模态能力、低延迟处理和无缝生态集成。
强大、易得、开放
为了赋能下一代先锋研究和产品,我们专门优化了 Gemma 4 的模型尺寸,使其能够从数十亿台 Android 设备、笔记本电脑 GPU,一直到开发者工作站和加速器上高效运行和微调。
通过使用这些高度优化的模型,您可以针对特定任务进行微调,以实现卓越性能。我们已经看到了许多成功案例:例如,INSAIT 创建了首个保加利亚语大模型 (BgGPT),我们还与耶鲁大学合作开展了 Cell2Sentence-Scale 项目,以发现癌症治疗的新路径。
Gemma 4 成为最强开放模型的核心优势:
- 高级推理: 具备多步规划和深层逻辑能力,在数学和指令遵循等复杂基准测试中表现显著提升。
- 代理工作流: 原生支持函数调用(Function-calling)、结构化 JSON 输出和原生系统指令,助力构建可与工具及 API 交互并可靠执行任务的自主代理。
- 代码生成: 支持高质量的离线代码编写,将您的工作站变为本地 AI 编程助手。
- 视觉与音频: 所有模型均原生支持视频和图像处理(支持可变分辨率),在 OCR 和图表理解方面表现出色。此外,E2B 和 E4B 模型还具备原生音频输入功能,用于语音识别和理解。
- 更长的上下文: 能够无缝处理长篇内容。边缘模型支持 128K 上下文窗口,而大尺寸模型支持高达 256K,允许在单个提示词中处理整个代码库或长篇文档。
- 140 多种语言: 经过 140 多种语言的原生训练,帮助开发者为全球用户构建包容性强、高性能的应用。
适配多样化硬件的灵活模型
我们发布的 Gemma 4 模型权重针对特定硬件和用例进行了量身定制:
26B 和 31B 模型:个人电脑上的前沿智能
经过优化,研究人员和开发者可以在易得的硬件上获得最先进的推理能力。我们的不量化 bfloat16 权重可高效装载于单块 80GB NVIDIA H100 GPU 上。对于本地设置,量化版本可运行于消费级 GPU。26B MoE 模型专注于低延迟,推理时仅激活 38 亿参数,提供极快的生成速度;而 31B 稠密模型则追求极致质量,为微调提供了强大的基础。
E2B 和 E4B 模型:移动与 IoT 设备的新高度
从底层开始设计,追求极致的计算和内存效率。这些模型在推理时占用 20 亿和 40 亿参数的足迹,以节省内存和电池寿命。通过与 Google Pixel 团队以及高通、联发科等移动硬件领军者的紧密合作,这些多模态模型可以在手机、树莓派、NVIDIA Jetson Orin Nano 等边缘设备上以近乎零延迟离线运行。
真正的开源许可
我们听取了您的反馈。构建 AI 的未来需要协作,我们相信应该赋能开发者生态系统,消除限制性障碍。因此,Gemma 4 采用商业友好的 Apache 2.0 许可证发布。
这一开源许可为开发者的灵活性和数字主权奠定了基础:让您对数据、基础设施和模型拥有完全的控制权。它允许您自由构建并安全部署在任何环境中,无论是本地环境还是云端。
网友解答:“以 Apache 2.0 协议发布 Gemma 4 是一个巨大的里程碑。我们非常激动能在 Hugging Face 上第一时间支持 Gemma 4 系列模型。”
--【壹】--:
幻觉来的
--【贰】--:
ai studio上速度有点慢,Google完全可以提速到1000 tok/s的
--【叁】--:
无敌了,31b和1tkimi分数差不多,谷歌的技术牛啊,但是为啥gemini pro好像没有让用户很满意呢
--【肆】--:
都开源了,何来不公布
--【伍】--:
认真的?31B差不多赶上KIMI-K2.5的1T模型?
别逗你谷爷笑了
--【陆】--:
上星期3.1pro拿来识图分辨率降得稍微小点的文本都提取不出来 得放大到只剩文本再发才行 测了十几次都不行 还不如豆包和gpt 昨天测同一张图又恢复了而且是秒出结果还准
--【柒】--:
信他强还是信我是秦始皇
--【捌】--:
文档里没看到啊,你现在已经知道总参数了吗?
--【玖】--:
喜欢 google 的动态降智吗
如此丝滑的调整
都不知道怎么做到的
--【拾】--:
我先来 跑分没输过 体验没赢过(不是
看看后面的评测吧 31B真能干碎大几倍的 能和glm5肩并肩了感觉有点厉害
--【拾壹】--:
噢噢看到了,我刚刚只看了google官网的
--【拾贰】--:
看看真实体验再说
现在各家刷题都刷上瘾了
--【拾叁】--:
google/gemma-4-E2B-it · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
google/gemma-4-E4B-it · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
--【拾肆】--:
Screenshot_20260403_0036331260×2222 250 KB
不过看了一下一些网页,好像豆包的这个数据不太对
有些测出来人类最后考试kiMi50分…
--【拾伍】--:
上一代不是还发布了3n模型的大致总参数吗?这一代e2b e4b总参数也不公布了,不过估计还是和上代一样
--【拾陆】--:
Gemini 4是什么意思
--【拾柒】--:
31b小模型跑分都比自家上代旗舰2.5pro高了,谷歌是真敢吹啊
--【拾捌】--:
666,蹲测评
--【拾玖】--:
能肘赢0325吗?
Gemma 4 - a google Collection
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Gemma 4: Byte for byte, the most capable open models
Gemma 4: our most intelligent open models to date, purpose-built for advanced reasoning and agentic workflows.
Gemma 4
Our most intelligent open models, built from Gemini 3 research.
Gemini Developer API pricing | Gemini API | Google AI for Developers
Gemini Developer API Pricing
177514588794524516706537543819341000×562 31.4 KB
Bring state-of-the-art agentic skills to the edge with Gemma 4- Google...
Google DeepMind introduces Gemma 4, a family of state-of-the-art open models designed for on-device agentic workflows. Learn how to leverage multi-step planning, 140+ language support, and LiteRT-LM to build powerful, autonomous AI experiences across...
image-191159×897 53 KB
Screenshot_20260403-0038151017×483 47.2 KB
今天,我们正式推出 Gemma 4 —— 这是我们迄今为止最智能的开放模型系列。
Gemma 4 专为高级推理和代理工作流(Agentic Workflows)而打造,实现了前所未有的“单位参数智能”。这一突破性进展建立在惊人的社区动力之上:自第一代发布以来,开发者对 Gemma 的下载量已超过 4 亿次,构建了一个拥有 10 万多个变体的活跃 “Gemmaverse”。我们密切关注创新者在拓展 AI 边界时的真实需求,Gemma 4 便是我们的答案:通过 Apache 2.0 许可证,让突破性的能力变得广泛可用。
基于与 Gemini 3 相同的世界级研究和技术构建,Gemma 4 是您可以在自有硬件上运行的最强大的模型系列。它们与 Gemini 模型相辅相成,为开发者提供了业界最强大的开放与专有工具组合。
行业领先的能力与移动优先的 AI
我们发布了四种尺寸的 Gemma 4:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家模型 (MoE) 以及 31B 稠密模型 (Dense)。
全系列模型已超越了简单的聊天功能,能够处理复杂的逻辑和代理工作流。我们的大尺寸模型在同级别中拥有顶尖性能:31B 模型目前在行业标准的 Arena AI 文本排行榜上排名全球开放模型第 3 位,26B 模型位列第 6。在榜单中,Gemma 4 的表现甚至超越了参数量为其 20 倍的模型。
对于开发者而言,这种全新的单位参数智能水平意味着能以显著降低的硬件开销实现前沿能力。在边缘侧,我们的 E2B 和 E4B 模型重新定义了设备端的实用性,优先考虑多模态能力、低延迟处理和无缝生态集成。
强大、易得、开放
为了赋能下一代先锋研究和产品,我们专门优化了 Gemma 4 的模型尺寸,使其能够从数十亿台 Android 设备、笔记本电脑 GPU,一直到开发者工作站和加速器上高效运行和微调。
通过使用这些高度优化的模型,您可以针对特定任务进行微调,以实现卓越性能。我们已经看到了许多成功案例:例如,INSAIT 创建了首个保加利亚语大模型 (BgGPT),我们还与耶鲁大学合作开展了 Cell2Sentence-Scale 项目,以发现癌症治疗的新路径。
Gemma 4 成为最强开放模型的核心优势:
- 高级推理: 具备多步规划和深层逻辑能力,在数学和指令遵循等复杂基准测试中表现显著提升。
- 代理工作流: 原生支持函数调用(Function-calling)、结构化 JSON 输出和原生系统指令,助力构建可与工具及 API 交互并可靠执行任务的自主代理。
- 代码生成: 支持高质量的离线代码编写,将您的工作站变为本地 AI 编程助手。
- 视觉与音频: 所有模型均原生支持视频和图像处理(支持可变分辨率),在 OCR 和图表理解方面表现出色。此外,E2B 和 E4B 模型还具备原生音频输入功能,用于语音识别和理解。
- 更长的上下文: 能够无缝处理长篇内容。边缘模型支持 128K 上下文窗口,而大尺寸模型支持高达 256K,允许在单个提示词中处理整个代码库或长篇文档。
- 140 多种语言: 经过 140 多种语言的原生训练,帮助开发者为全球用户构建包容性强、高性能的应用。
适配多样化硬件的灵活模型
我们发布的 Gemma 4 模型权重针对特定硬件和用例进行了量身定制:
26B 和 31B 模型:个人电脑上的前沿智能
经过优化,研究人员和开发者可以在易得的硬件上获得最先进的推理能力。我们的不量化 bfloat16 权重可高效装载于单块 80GB NVIDIA H100 GPU 上。对于本地设置,量化版本可运行于消费级 GPU。26B MoE 模型专注于低延迟,推理时仅激活 38 亿参数,提供极快的生成速度;而 31B 稠密模型则追求极致质量,为微调提供了强大的基础。
E2B 和 E4B 模型:移动与 IoT 设备的新高度
从底层开始设计,追求极致的计算和内存效率。这些模型在推理时占用 20 亿和 40 亿参数的足迹,以节省内存和电池寿命。通过与 Google Pixel 团队以及高通、联发科等移动硬件领军者的紧密合作,这些多模态模型可以在手机、树莓派、NVIDIA Jetson Orin Nano 等边缘设备上以近乎零延迟离线运行。
真正的开源许可
我们听取了您的反馈。构建 AI 的未来需要协作,我们相信应该赋能开发者生态系统,消除限制性障碍。因此,Gemma 4 采用商业友好的 Apache 2.0 许可证发布。
这一开源许可为开发者的灵活性和数字主权奠定了基础:让您对数据、基础设施和模型拥有完全的控制权。它允许您自由构建并安全部署在任何环境中,无论是本地环境还是云端。
网友解答:“以 Apache 2.0 协议发布 Gemma 4 是一个巨大的里程碑。我们非常激动能在 Hugging Face 上第一时间支持 Gemma 4 系列模型。”
--【壹】--:
幻觉来的
--【贰】--:
ai studio上速度有点慢,Google完全可以提速到1000 tok/s的
--【叁】--:
无敌了,31b和1tkimi分数差不多,谷歌的技术牛啊,但是为啥gemini pro好像没有让用户很满意呢
--【肆】--:
都开源了,何来不公布
--【伍】--:
认真的?31B差不多赶上KIMI-K2.5的1T模型?
别逗你谷爷笑了
--【陆】--:
上星期3.1pro拿来识图分辨率降得稍微小点的文本都提取不出来 得放大到只剩文本再发才行 测了十几次都不行 还不如豆包和gpt 昨天测同一张图又恢复了而且是秒出结果还准
--【柒】--:
信他强还是信我是秦始皇
--【捌】--:
文档里没看到啊,你现在已经知道总参数了吗?
--【玖】--:
喜欢 google 的动态降智吗
如此丝滑的调整
都不知道怎么做到的
--【拾】--:
我先来 跑分没输过 体验没赢过(不是
看看后面的评测吧 31B真能干碎大几倍的 能和glm5肩并肩了感觉有点厉害
--【拾壹】--:
噢噢看到了,我刚刚只看了google官网的
--【拾贰】--:
看看真实体验再说
现在各家刷题都刷上瘾了
--【拾叁】--:
google/gemma-4-E2B-it · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
google/gemma-4-E4B-it · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
--【拾肆】--:
Screenshot_20260403_0036331260×2222 250 KB
不过看了一下一些网页,好像豆包的这个数据不太对
有些测出来人类最后考试kiMi50分…
--【拾伍】--:
上一代不是还发布了3n模型的大致总参数吗?这一代e2b e4b总参数也不公布了,不过估计还是和上代一样
--【拾陆】--:
Gemini 4是什么意思
--【拾柒】--:
31b小模型跑分都比自家上代旗舰2.5pro高了,谷歌是真敢吹啊
--【拾捌】--:
666,蹲测评
--【拾玖】--:
能肘赢0325吗?

