美国本土Arcee 正式发布开源模型 Trinity-Large-Thinking:对标顶尖推理模型,超越MiniMax M2.7
- 内容介绍
- 文章标签
- 相关推荐
今日,知名美国本土 AI 研发机构 Arcee 正式宣布推出其前沿开源推理模型 —— Trinity-Large-Thinking。该模型专为处理复杂、长周期的智能体(Agent)任务及多轮工具调用而设计,并严格遵循 Apache 2.0 协议。目前,模型权重已同步上线 Hugging Face,开发者亦可通过 Arcee 官方 API 进行调用。
九个月前,Arcee 决定走上一条极具挑战性的道路:自主构建高性能的美国本土开源模型。在经历了 4.5B、Nano、Mini 以及今年 1 月份发布的 Trinity Large Preview 版本后,Trinity-Large-Thinking 作为该系列的最终正式版正式亮相。
Arcee 团队表示,这款模型在多个维度上已成为中国以外性能最强的开源模型之一。通过在过去两个月中不断优化和扩展 SFT(监督微调)与 RL(强化学习)流水线,Trinity-Large-Thinking 引入了类似于 Trinity-Mini 的**“思考(Thinking)”机制**。模型在正式回答前会进行逻辑预推理,这显著提升了其在多轮对话中的语境连贯性、指令遵循度以及在长周期智能体循环中的稳定性。
在针对智能体能力的 PinchBench 基准测试中,Trinity-Large-Thinking 表现惊艳,位列全球第二,仅次于 Opus-4.6。
177508972126443977410860149414371920×1080 187 KB
在 API 上,该模型的输出价格为 $0.90 / 百万 Token。相比之下,其性能相近的竞争对手成本高出数倍,Trinity-Large-Thinking 实际上实现了约 96% 的成本削减。
核心优势一览:
- 强大的工具调用: 能够精准、稳定地处理复杂的多轮工具操作。
- 长周期连贯性: 在长时间运行的 Agent 任务中保持上下文不偏移。
- 极致性价比: 以极低的价格提供媲美顶级商用模型的推理能力。
随着 Large 版本的正式发布,Arcee 的下一步计划是将训练过程中的经验“反哺”给旗下的轻量化模型。
据悉,团队即将着手开发 Trinity-2-Nano 和 Mini。通过将 Large 模型的推理逻辑蒸馏至小参数模型中,Arcee 旨在打破“高性能必大参数”的定式。目前,Trinity-Large-Thinking 的项目仍在持续进化中,未来将有更多关于长周期智能体优化功能的更新。
Trinity Large Thinking - API Pricing & Providers
Trinity Large Thinking is a powerful open source reasoning model from the team at Arcee AI. $0.25 per million input tokens, $0.90 per million output tokens. 262,144 token context window, maximum output of 80,000 tokens.
arcee-ai/Trinity-Large-Thinking · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Arcee Platform
网友解答:--【壹】--:
Screenshot_20260402-083923741×740 61.2 KB
Screenshot_20260402-0842231913×950 122 KB
--【贰】--:
哈哈。笑到了。不过那个时候。 不止日本。很多都这样干,最近ds沉积了好久。希望[神]能回归
--【叁】--:
minimax2.7也没有很强吧
--【肆】--:
这,,,
--【伍】--:
超越谁就用谁。
看来 minimax 等国产甚至可能比这个更好用。
--【陆】--:
跑分没输过,体验没赢过
--【柒】--:
“如願“
--【捌】--:
看起来很牛的样子
--【玖】--:
观望一下,没了解过
--【拾】--:
笑吐了,赔钱!
--【拾壹】--:
好久没有看到这种成色的结果了…
--【拾贰】--:
这个紫色配色的背景……要看吐了的说
--【拾叁】--:
有没有佬实际用过,说说效果,不太相信官方跑分
--【拾肆】--:
国产很多模型跑分都优于gpt、claude,哎
--【拾伍】--:
还不如日本deepseek造假,爸爸不如儿子了
--【拾陆】--:
你拿我寻开心是不是!?
--【拾柒】--:
不会是在美华人弄的吧
卷到美国去了?
--【拾捌】--: Bunn:
已成为中国以外性能最强的开源模型之一
这你能绷住吗
--【拾玖】--:
美国进入ai时代,中国还在新能源时代~
今日,知名美国本土 AI 研发机构 Arcee 正式宣布推出其前沿开源推理模型 —— Trinity-Large-Thinking。该模型专为处理复杂、长周期的智能体(Agent)任务及多轮工具调用而设计,并严格遵循 Apache 2.0 协议。目前,模型权重已同步上线 Hugging Face,开发者亦可通过 Arcee 官方 API 进行调用。
九个月前,Arcee 决定走上一条极具挑战性的道路:自主构建高性能的美国本土开源模型。在经历了 4.5B、Nano、Mini 以及今年 1 月份发布的 Trinity Large Preview 版本后,Trinity-Large-Thinking 作为该系列的最终正式版正式亮相。
Arcee 团队表示,这款模型在多个维度上已成为中国以外性能最强的开源模型之一。通过在过去两个月中不断优化和扩展 SFT(监督微调)与 RL(强化学习)流水线,Trinity-Large-Thinking 引入了类似于 Trinity-Mini 的**“思考(Thinking)”机制**。模型在正式回答前会进行逻辑预推理,这显著提升了其在多轮对话中的语境连贯性、指令遵循度以及在长周期智能体循环中的稳定性。
在针对智能体能力的 PinchBench 基准测试中,Trinity-Large-Thinking 表现惊艳,位列全球第二,仅次于 Opus-4.6。
177508972126443977410860149414371920×1080 187 KB
在 API 上,该模型的输出价格为 $0.90 / 百万 Token。相比之下,其性能相近的竞争对手成本高出数倍,Trinity-Large-Thinking 实际上实现了约 96% 的成本削减。
核心优势一览:
- 强大的工具调用: 能够精准、稳定地处理复杂的多轮工具操作。
- 长周期连贯性: 在长时间运行的 Agent 任务中保持上下文不偏移。
- 极致性价比: 以极低的价格提供媲美顶级商用模型的推理能力。
随着 Large 版本的正式发布,Arcee 的下一步计划是将训练过程中的经验“反哺”给旗下的轻量化模型。
据悉,团队即将着手开发 Trinity-2-Nano 和 Mini。通过将 Large 模型的推理逻辑蒸馏至小参数模型中,Arcee 旨在打破“高性能必大参数”的定式。目前,Trinity-Large-Thinking 的项目仍在持续进化中,未来将有更多关于长周期智能体优化功能的更新。
Trinity Large Thinking - API Pricing & Providers
Trinity Large Thinking is a powerful open source reasoning model from the team at Arcee AI. $0.25 per million input tokens, $0.90 per million output tokens. 262,144 token context window, maximum output of 80,000 tokens.
arcee-ai/Trinity-Large-Thinking · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Arcee Platform
网友解答:--【壹】--:
Screenshot_20260402-083923741×740 61.2 KB
Screenshot_20260402-0842231913×950 122 KB
--【贰】--:
哈哈。笑到了。不过那个时候。 不止日本。很多都这样干,最近ds沉积了好久。希望[神]能回归
--【叁】--:
minimax2.7也没有很强吧
--【肆】--:
这,,,
--【伍】--:
超越谁就用谁。
看来 minimax 等国产甚至可能比这个更好用。
--【陆】--:
跑分没输过,体验没赢过
--【柒】--:
“如願“
--【捌】--:
看起来很牛的样子
--【玖】--:
观望一下,没了解过
--【拾】--:
笑吐了,赔钱!
--【拾壹】--:
好久没有看到这种成色的结果了…
--【拾贰】--:
这个紫色配色的背景……要看吐了的说
--【拾叁】--:
有没有佬实际用过,说说效果,不太相信官方跑分
--【拾肆】--:
国产很多模型跑分都优于gpt、claude,哎
--【拾伍】--:
还不如日本deepseek造假,爸爸不如儿子了
--【拾陆】--:
你拿我寻开心是不是!?
--【拾柒】--:
不会是在美华人弄的吧
卷到美国去了?
--【拾捌】--: Bunn:
已成为中国以外性能最强的开源模型之一
这你能绷住吗
--【拾玖】--:
美国进入ai时代,中国还在新能源时代~

