谷歌新模型疑曝光:Gemini 3.1 Flash 现身 Arena 竞技场,Gemma 4 或紧随其后
- 内容介绍
- 文章标签
- 相关推荐
谷歌(Google)疑似正在 LMArena(竞技场)上秘密测试其下一代开源模型 Gemma 4,测试代号为 “significant-otter”。
Gemma 4:多模态与轻量化的完美结合
根据社交媒体流出的截图和元数据(Metadata)显示,代号为 “significant-otter” 的模型在对话中明确表示自己是“由 Google DeepMind 开发的大语言模型 Gemma 4”。
泄露信息显示,Gemma 4 将具备以下亮点:
- 多版本并行: 目前已发现 2B 和 4B 等不同参数规模的版本,
除了开源系列的 Gemma 4,竞技场上还出现了一个名为 “Whitewater” 的神秘模型。社区普遍推测,这正是谷歌即将推出的 Gemini 3.1 Flash。
HEgMP6cbUAA3Rxf1965×2048 159 KB
177471515738067490352881737266261307×1122 92.3 KB
17747151770295790208380899786604680×383 13 KB
17747152231863474421761330257904786×250 9.81 KB
--【壹】--:
我要的是gemini4
--【贰】--:
有研究Titans架构,不可能还缩水吧
Titans + MIRAS: Helping AI have long-term memory
用上了上下文就不愁不够了
--【叁】--:
最近不是有gemini 3.1 flash live
--【肆】--:
gemini你现在有点落后了
--【伍】--:
期待, Gemini除了旗舰Pro模型拉跨, Flash3系列, Embedding2系列, Banana系列, 都是一梯队无可替代的实用模型.
Flash3系列堪称 GPT最严厉的父亲, 每次GPT又臭又长的黑话一秒钟都不想看, 让Claude翻译成人话成本太高, 这个任务Flash3再适合不过了, 上下文也和GPT同步,都是 1m, 又快又好.
--【陆】--:
看看Gemma 4能不能和qwen 3.5的小模型对比
--【柒】--:
没戏,gamma很菜的
--【捌】--:
绝对没戏
哈萨比斯说过,Gemma 就是Gemini上一代的开源版
参考上代的情况
也就是Gemini 2.5 Flash的基础上再强化训练一下,开出一批Lite级尺寸的模型。
--【玖】--:
那要等到下半年才有
--【拾】--: astro_void:
mini 3 系列的 Flash 比 Pro 用着舒服太多了,期待 3.1 Fla
要不来个Gemin-3.5-Pro吧
--【拾壹】--:
gemini再不来我以为google倒闭了
--【拾贰】--:
Gemma 4 来了,但我 3.1 Flash 呢?
--【拾叁】--:
不敢期待,害怕 3.5-Pro 注意力缩水到 10k
--【拾肆】--:
之前在 reddit 上看到有人猜测 Qwen3.5 的发布给了压力,Gemma 4 才迟那么久发布的
另外,Gemini 3 系列的 Flash 比 Pro 用着舒服太多了,期待 3.1 Flash
--【拾伍】--:
这是真了解 pro 的
谷歌(Google)疑似正在 LMArena(竞技场)上秘密测试其下一代开源模型 Gemma 4,测试代号为 “significant-otter”。
Gemma 4:多模态与轻量化的完美结合
根据社交媒体流出的截图和元数据(Metadata)显示,代号为 “significant-otter” 的模型在对话中明确表示自己是“由 Google DeepMind 开发的大语言模型 Gemma 4”。
泄露信息显示,Gemma 4 将具备以下亮点:
- 多版本并行: 目前已发现 2B 和 4B 等不同参数规模的版本,
除了开源系列的 Gemma 4,竞技场上还出现了一个名为 “Whitewater” 的神秘模型。社区普遍推测,这正是谷歌即将推出的 Gemini 3.1 Flash。
HEgMP6cbUAA3Rxf1965×2048 159 KB
177471515738067490352881737266261307×1122 92.3 KB
17747151770295790208380899786604680×383 13 KB
17747152231863474421761330257904786×250 9.81 KB
--【壹】--:
我要的是gemini4
--【贰】--:
有研究Titans架构,不可能还缩水吧
Titans + MIRAS: Helping AI have long-term memory
用上了上下文就不愁不够了
--【叁】--:
最近不是有gemini 3.1 flash live
--【肆】--:
gemini你现在有点落后了
--【伍】--:
期待, Gemini除了旗舰Pro模型拉跨, Flash3系列, Embedding2系列, Banana系列, 都是一梯队无可替代的实用模型.
Flash3系列堪称 GPT最严厉的父亲, 每次GPT又臭又长的黑话一秒钟都不想看, 让Claude翻译成人话成本太高, 这个任务Flash3再适合不过了, 上下文也和GPT同步,都是 1m, 又快又好.
--【陆】--:
看看Gemma 4能不能和qwen 3.5的小模型对比
--【柒】--:
没戏,gamma很菜的
--【捌】--:
绝对没戏
哈萨比斯说过,Gemma 就是Gemini上一代的开源版
参考上代的情况
也就是Gemini 2.5 Flash的基础上再强化训练一下,开出一批Lite级尺寸的模型。
--【玖】--:
那要等到下半年才有
--【拾】--: astro_void:
mini 3 系列的 Flash 比 Pro 用着舒服太多了,期待 3.1 Fla
要不来个Gemin-3.5-Pro吧
--【拾壹】--:
gemini再不来我以为google倒闭了
--【拾贰】--:
Gemma 4 来了,但我 3.1 Flash 呢?
--【拾叁】--:
不敢期待,害怕 3.5-Pro 注意力缩水到 10k
--【拾肆】--:
之前在 reddit 上看到有人猜测 Qwen3.5 的发布给了压力,Gemma 4 才迟那么久发布的
另外,Gemini 3 系列的 Flash 比 Pro 用着舒服太多了,期待 3.1 Flash
--【拾伍】--:
这是真了解 pro 的

