美国本土Arcee 正式发布开源模型 Trinity-Large-Thinking:对标顶尖推理模型,超越MiniMax M2.7

2026-04-11 12:421阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

今日,知名美国本土 AI 研发机构 Arcee 正式宣布推出其前沿开源推理模型 —— Trinity-Large-Thinking。该模型专为处理复杂、长周期的智能体(Agent)任务及多轮工具调用而设计,并严格遵循 Apache 2.0 协议。目前,模型权重已同步上线 Hugging Face,开发者亦可通过 Arcee 官方 API 进行调用。

九个月前,Arcee 决定走上一条极具挑战性的道路:自主构建高性能的美国本土开源模型。在经历了 4.5B、Nano、Mini 以及今年 1 月份发布的 Trinity Large Preview 版本后,Trinity-Large-Thinking 作为该系列的最终正式版正式亮相。

Arcee 团队表示,这款模型在多个维度上已成为中国以外性能最强的开源模型之一。通过在过去两个月中不断优化和扩展 SFT(监督微调)与 RL(强化学习)流水线,Trinity-Large-Thinking 引入了类似于 Trinity-Mini 的**“思考(Thinking)”机制**。模型在正式回答前会进行逻辑预推理,这显著提升了其在多轮对话中的语境连贯性、指令遵循度以及在长周期智能体循环中的稳定性。

在针对智能体能力的 PinchBench 基准测试中,Trinity-Large-Thinking 表现惊艳,位列全球第二,仅次于 Opus-4.6。
177508972126443977410860149414371920×1080 187 KB

在 API 上,该模型的输出价格为 $0.90 / 百万 Token。相比之下,其性能相近的竞争对手成本高出数倍,Trinity-Large-Thinking 实际上实现了约 96% 的成本削减。

核心优势一览:

  • 强大的工具调用: 能够精准、稳定地处理复杂的多轮工具操作。
  • 长周期连贯性: 在长时间运行的 Agent 任务中保持上下文不偏移。
  • 极致性价比: 以极低的价格提供媲美顶级商用模型的推理能力。

随着 Large 版本的正式发布,Arcee 的下一步计划是将训练过程中的经验“反哺”给旗下的轻量化模型。
据悉,团队即将着手开发 Trinity-2-Nano 和 Mini。通过将 Large 模型的推理逻辑蒸馏至小参数模型中,Arcee 旨在打破“高性能必大参数”的定式。目前,Trinity-Large-Thinking 的项目仍在持续进化中,未来将有更多关于长周期智能体优化功能的更新。

openrouter.ai

Trinity Large Thinking - API Pricing & Providers

Trinity Large Thinking is a powerful open source reasoning model from the team at Arcee AI. $0.25 per million input tokens, $0.90 per million output tokens. 262,144 token context window, maximum output of 80,000 tokens.

huggingface.co

arcee-ai/Trinity-Large-Thinking · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

chat.arcee.ai

Arcee Platform

网友解答:
--【壹】--:

Screenshot_20260402-083923741×740 61.2 KB
Screenshot_20260402-0842231913×950 122 KB


--【贰】--:

哈哈。笑到了。不过那个时候。 不止日本。很多都这样干,最近ds沉积了好久。希望[神]能回归


--【叁】--:

minimax2.7也没有很强吧


--【肆】--:

这,,,


--【伍】--:

超越谁就用谁。

看来 minimax 等国产甚至可能比这个更好用。


--【陆】--:

跑分没输过,体验没赢过


--【柒】--:

“如願“


--【捌】--:

看起来很牛的样子


--【玖】--:

观望一下,没了解过


--【拾】--:

笑吐了,赔钱!


--【拾壹】--:

好久没有看到这种成色的结果了…


--【拾贰】--:

这个紫色配色的背景……要看吐了的说


--【拾叁】--:

有没有佬实际用过,说说效果,不太相信官方跑分


--【拾肆】--:

国产很多模型跑分都优于gpt、claude,哎


--【拾伍】--:

还不如日本deepseek造假,爸爸不如儿子了


--【拾陆】--:

你拿我寻开心是不是!?


--【拾柒】--:

不会是在美华人弄的吧
卷到美国去了?


--【拾捌】--: Bunn:

已成为中国以外性能最强的开源模型之一

这你能绷住吗


--【拾玖】--:

美国进入ai时代,中国还在新能源时代~