H公司发布全新 Holo3 系列模型:以极低成本优于 GPT-5.4 和 Opus 4.6
- 内容介绍
- 文章标签
- 相关推荐
今日,H公司正式发布其最新一代大规模视觉语言模型(VLM)Holo3。该系列模型专为 GUI(图形用户界面)智能体优化,旨在通过对视觉界面的深度理解与复杂逻辑推理,实现跨 Web、桌面及移动端的全自动化操作。
benchmark_table_light2920×2304 283 KB
osworld_pareto_light1920×1396 147 KB
在衡量计算机使用能力的权威基准测试 OSWorld-Verified 中,Holo3 展现了统治级的表现:
- Holo3-122B-A10B:以 78.9% 的高分创下行业新纪录。
- Holo3-35B-A3B:尽管规模较小,仍取得了 77.8% 的惊人成绩。
这意味着 Holo3 在模拟真实人类操作电脑的任务中,已经全面超越了包括 GPT-5.4、Claude Sonnet 4.6 以及 Opus 4.6 在内的诸多顶尖闭源模型。
Holo3 成功的秘密在于其高效的 Sparse Mixture-of-Experts (MoE) 架构:
- 高效率:虽然 122B 模型总参数量过千亿,但实际运行时的活跃参数仅为 10B。
- 低成本:得益于精简的活跃参数,Holo3 的推理成本仅为竞争对手的一小部分。以输出令牌计算,Holo3-122B 的价格仅为 $3.00/M,远低于 GPT-5.4 或 Opus 4.6 那动辄 $15-$25/M 的天价。
除了公开榜单,H公司还推出了包含 486 个多步骤任务的 H Corporate 企业级基准测试。结果显示,Holo3 在电商、商业软件、协同办公及多应用流转(Multi-Apps)等实际业务场景中,表现显著优于参数量大得多的竞争对手。
“Holo3 不仅仅是为了跑分,它是为生产环境而生的。” H公司官方博客表示,“通过我们的‘智能体飞轮(Agentic Flywheel)’训练,Holo3 能够自主导航几乎任何数字景观,为‘自动化企业’愿景奠定了基础。”
H公司宣布将 Holo3-35B-A3B 的模型权重在 Hugging Face 上完全开源(Apache 2.0 协议)。
- Holo3-35B:性能与 122B 极其接近,但速度更快,开发者可自由部署。
- API 服务:全系列模型已接入 H公司 推理 API。
Holo3 - H Company
We are a frontier AI research company that designs, builds, and deploys cost-efficient agentic AI systems directly into enterprises’ core workflows and processes.
Hcompany/Holo3-35B-A3B · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
API : Contact - H Company
通过 Portal-H (https://portal.hcompany.ai/) 注册后,每位用户都会被自动分配到免费层级。该层级提供对我们 Holo3 35B 模型 API 的限速访问,此速率限制足以满足对 Holo-3 的测试需求。如果您需要更高的调用频率,建议您通过充值余额升级至付费层级。
网友解答:--【壹】--:
等一下,我以为愚人节
--【贰】--:
优于opus4.6?我不信
--【叁】--:
吓我一激灵
不要命啦
--【肆】--:
这个应该是用来computer use吧?
--【伍】--:
122B-A10B,35B-A3B。。。
好眼熟的参数量
还真是基于Qwen3.5微调((
--【陆】--:
原来是 hf
--【柒】--:
还以为是那家公司
--【捌】--:
只想要代码能力超强的
--【玖】--:
这玩意一眼不就是从 qwen3.5-35b-a3b 练的,超越 gpt5.4 和 opus4.6?如果今天不是愚人节,我真得信了。
--【拾】--:
这参数量,信他还是信我是秦始皇
--【拾壹】--:
Qwen3.5 系列是 256K 的上下文,应该不会裁剪上下文
--【拾贰】--:
无聊,谁都想骗一波融资
--【拾叁】--:
关注 话说 h 公司是哪个公司
--【拾肆】--:
我看了下也没愚人节的tag啊
--【拾伍】--:
看已经发布的 35B-A3B,应该还是 256K
--【拾陆】--:
但看到65536 tokens 有点不妙(不用lora?)
--【拾柒】--:
桌面操作特化模型
--【拾捌】--:
纸面参数不错。可以代替本地部署Qwen 3.5小模型。看不到RPM/RPD。上下文多大?
--【拾玖】--:
谁来测试一下
今日,H公司正式发布其最新一代大规模视觉语言模型(VLM)Holo3。该系列模型专为 GUI(图形用户界面)智能体优化,旨在通过对视觉界面的深度理解与复杂逻辑推理,实现跨 Web、桌面及移动端的全自动化操作。
benchmark_table_light2920×2304 283 KB
osworld_pareto_light1920×1396 147 KB
在衡量计算机使用能力的权威基准测试 OSWorld-Verified 中,Holo3 展现了统治级的表现:
- Holo3-122B-A10B:以 78.9% 的高分创下行业新纪录。
- Holo3-35B-A3B:尽管规模较小,仍取得了 77.8% 的惊人成绩。
这意味着 Holo3 在模拟真实人类操作电脑的任务中,已经全面超越了包括 GPT-5.4、Claude Sonnet 4.6 以及 Opus 4.6 在内的诸多顶尖闭源模型。
Holo3 成功的秘密在于其高效的 Sparse Mixture-of-Experts (MoE) 架构:
- 高效率:虽然 122B 模型总参数量过千亿,但实际运行时的活跃参数仅为 10B。
- 低成本:得益于精简的活跃参数,Holo3 的推理成本仅为竞争对手的一小部分。以输出令牌计算,Holo3-122B 的价格仅为 $3.00/M,远低于 GPT-5.4 或 Opus 4.6 那动辄 $15-$25/M 的天价。
除了公开榜单,H公司还推出了包含 486 个多步骤任务的 H Corporate 企业级基准测试。结果显示,Holo3 在电商、商业软件、协同办公及多应用流转(Multi-Apps)等实际业务场景中,表现显著优于参数量大得多的竞争对手。
“Holo3 不仅仅是为了跑分,它是为生产环境而生的。” H公司官方博客表示,“通过我们的‘智能体飞轮(Agentic Flywheel)’训练,Holo3 能够自主导航几乎任何数字景观,为‘自动化企业’愿景奠定了基础。”
H公司宣布将 Holo3-35B-A3B 的模型权重在 Hugging Face 上完全开源(Apache 2.0 协议)。
- Holo3-35B:性能与 122B 极其接近,但速度更快,开发者可自由部署。
- API 服务:全系列模型已接入 H公司 推理 API。
Holo3 - H Company
We are a frontier AI research company that designs, builds, and deploys cost-efficient agentic AI systems directly into enterprises’ core workflows and processes.
Hcompany/Holo3-35B-A3B · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
API : Contact - H Company
通过 Portal-H (https://portal.hcompany.ai/) 注册后,每位用户都会被自动分配到免费层级。该层级提供对我们 Holo3 35B 模型 API 的限速访问,此速率限制足以满足对 Holo-3 的测试需求。如果您需要更高的调用频率,建议您通过充值余额升级至付费层级。
网友解答:--【壹】--:
等一下,我以为愚人节
--【贰】--:
优于opus4.6?我不信
--【叁】--:
吓我一激灵
不要命啦
--【肆】--:
这个应该是用来computer use吧?
--【伍】--:
122B-A10B,35B-A3B。。。
好眼熟的参数量
还真是基于Qwen3.5微调((
--【陆】--:
原来是 hf
--【柒】--:
还以为是那家公司
--【捌】--:
只想要代码能力超强的
--【玖】--:
这玩意一眼不就是从 qwen3.5-35b-a3b 练的,超越 gpt5.4 和 opus4.6?如果今天不是愚人节,我真得信了。
--【拾】--:
这参数量,信他还是信我是秦始皇
--【拾壹】--:
Qwen3.5 系列是 256K 的上下文,应该不会裁剪上下文
--【拾贰】--:
无聊,谁都想骗一波融资
--【拾叁】--:
关注 话说 h 公司是哪个公司
--【拾肆】--:
我看了下也没愚人节的tag啊
--【拾伍】--:
看已经发布的 35B-A3B,应该还是 256K
--【拾陆】--:
但看到65536 tokens 有点不妙(不用lora?)
--【拾柒】--:
桌面操作特化模型
--【拾捌】--:
纸面参数不错。可以代替本地部署Qwen 3.5小模型。看不到RPM/RPD。上下文多大?
--【拾玖】--:
谁来测试一下

