token的价格,最终会走向何方

2026-04-29 09:132阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

最近的模型越来越贵了,这背后是高昂的运行成本。
看到曾经有佬友问自建glm5.1成本如何,得到的答案是不算电费就已经要好几百万,能支持的并发量还非常有限。
不少ai厂商也在赔本赚吆喝。两大ai巨头都表示需要输血。
智普套餐的缺货、模型的断连彰显的是背后算力的不足。
算力资源似乎是当前跨不过去的一道坎,而人类对ai的依赖性正越来越高。
未来token的价格会如何?会因为ai厂商逐渐撑不住或者野心膨胀而走高?还是会因为算力电力设施的增多、模型的优化而降低?

网友解答:
--【壹】--:

长远来看,会越来越便宜;
但创业者时机成本更值钱。


--【贰】--:

佬友不必担心,3G时代吹嘘4G流量很贵,4G时代吹嘘5G流量一晚上就要烧掉一栋房,类比一下


--【叁】--:

等国内芯片产业链成熟,就是降价之时,目前就是算力紧张,卡在芯片吧?

所以结论,重仓芯片


--【肆】--:

cerebras 应该是跟 NV 高低配
不然大晶圆挺贵的,而且容量有限


--【伍】--:

这个东西谁又能说的准呢,物理硬件和计算成本还有汇率都息息相关。国内的话就和计算成本GPU显卡相关了


--【陆】--:

摩尔定律是不是又要开始生效了呢,总之时代是在进步的,新兴事物刚开始都很昂贵,早期的大哥大,电脑,汽车


--【柒】--:

普通人还是老老实实地使用中转站。使用国外的大模型,这样不仅质量最好,而且不会有利益损失


--【捌】--:

感觉还在高速发展期,迟早会嵌入现有的社会生态,变成类似水电气一样的基础消耗与设施,价格也会下来的,交给时间就行


--【玖】--:

但通信基站设施跟gpu这种资源相比还是有很大不同的


--【拾】--:

长期看 token 价格很难一直维持高位吧。现在各家价格都抬高,主要还是算力紧、芯片贵、推理成本高,以及厂商还在高速投入训练和基础设施建设,(再加上 OpenClaw 这种把 CodingPlan 吃成 TokenPlan 的东西 )但长期只要国产芯片、供电、数据中心和模型工程优化继续推进,单位智能成本大概率会被嗖嗖打下来。

国内还有一个优势,就是应用场景足够大。政务、工业、教育、客服、办公、制造业、消费端,到处都有大量真实需求。只要这些场景能真正消化算力并产出效果,AI 就不只是烧钱讲故事,而是有机会进入实体经济循环。这样厂商也更有动力把 token 价格压低,让 token 真的像电一样处处流动,用规模换市场,而不是单纯靠涨价回本。

所以我倾向于认为,未来高端模型可能仍然会有溢价,但普通人和普通业务使用的 token 成本会逐步下降,最后更像水电、云服务一样,成为基础设施消耗品。

毕竟各位佬友也能体会出来,从 GPT-5.2 之后,coding 场景已经开始触及边际效应了。很多时候甚至只需要 GLM-5.1,经验丰富的佬友们搭配Harness就可以用出特别好的效果。事实上大部分人和大部分场景需要的并不是最顶级的智能,而是恰好能在这个场景里干好活的智能。

最近很多一两千亿参数量的较小模型,就是特定场景下成本和效率的综合最优解。在价格只有顶模十分之一甚至更低的情况下,某些任务上效果甚至还会更好,那为啥不用呢?随着这类模型逐渐从通用 LLM 手里接过本来就更适合它们的位置,先前被浪费的智能会被更充分地利用,整体价格自然也有下降空间。

再有一点,现在 agent 也在逐步优化。从 OpenClaw 走向 Hermes,本质上也代表着智能使用场景和使用模式的进化:从啥活都直接让模型干,到后面把经验固化、流程复用、重复步骤工具化。智能体在应用中的地位也会逐渐从底层重复劳动中上升,和脚本、工作流等等部分各自分工,单位 token 的使用效率也会进一步提升。

再大胆一点想,未来模型可能会在训练和推理层面出现更高级的分工分化,类似 Opus 负责规划、Composer 负责执行这种“在其位谋其政”的模式。把专家能力从模型层面、任务层面拆开之后,不管是训练成本、迭代成本还是推理成本,理论上都有继续下降的空间,也会更加灵活。未来维护几个高智能的千亿模型,分配迭代和训练,以及智能调配和应用,比弄个万亿模型的流程和需要好多了吧。

当然,短期内 token 价格还是会受芯片啊算力啊等等许多因素影响,目前就是阶段性涨价的位点(还真让罗福莉说中了啊)。但长期看,token 价格如果太高,本身就会限制 AI 普及和应用扩张。对于真正跑得起模型的巨头来说,他们大概率宁愿短期少赚一点,也要先把用户认知和使用习惯铺开,(从 OpenClaw 这波浪潮里其实也能窥见一斑,各家都在拼命近乎赔本的提升群众人认知来拓展消费市场)。所以我觉得 token 没有太多长期维持高价的空间。

最后幻想一下,万一过个两三年可控核聚变真突破了呢嘿嘿


--【拾壹】--:

国外大模型的价格也不是一成不变。现在还能接受,以后呢


--【拾贰】--:

多少年前上网拨号,限制wifi,如今?时间会抹去这些的


--【拾叁】--:

后面肯定会回归正价的放心。参考vps的发展


--【拾肆】--:

模型是进步的,同样数量的卡能跑的模型的性能只会越来越高


--【拾伍】--:

我想大概核聚变能源可以完美控制时,将普及全球替代其他能源,这样能源贫价,创造无上限,各行业高速发展,token价格可能低到无法想象,或许已被其他方式替代了,哈哈


--【拾陆】--:

技术一直在进步,比如前几天openai投资200亿搞的芯片方案叫啥来着(晶圆不在分割 改为使用整块) GPT说token的成本能做到现在的1/5~1/3 减少了线束传输信号 电耗大幅降低 芯片利用率也更好


--【拾柒】--:

B300 才刚刚开始正式部署
Rubin / Vera 蓄势待发
不太可能不断往上涨


--【拾捌】--:

后面有没有可能会变成类似于现在流量的使用形式?由几个大平台提供类似于流量一样的包月套餐(限速、封顶,高速,定向),然后用户购买套餐日常使用。


--【拾玖】--:

还是太贵了,不过也越来越好了,我是用不起了

标签:人工智能
问题描述:

最近的模型越来越贵了,这背后是高昂的运行成本。
看到曾经有佬友问自建glm5.1成本如何,得到的答案是不算电费就已经要好几百万,能支持的并发量还非常有限。
不少ai厂商也在赔本赚吆喝。两大ai巨头都表示需要输血。
智普套餐的缺货、模型的断连彰显的是背后算力的不足。
算力资源似乎是当前跨不过去的一道坎,而人类对ai的依赖性正越来越高。
未来token的价格会如何?会因为ai厂商逐渐撑不住或者野心膨胀而走高?还是会因为算力电力设施的增多、模型的优化而降低?

网友解答:
--【壹】--:

长远来看,会越来越便宜;
但创业者时机成本更值钱。


--【贰】--:

佬友不必担心,3G时代吹嘘4G流量很贵,4G时代吹嘘5G流量一晚上就要烧掉一栋房,类比一下


--【叁】--:

等国内芯片产业链成熟,就是降价之时,目前就是算力紧张,卡在芯片吧?

所以结论,重仓芯片


--【肆】--:

cerebras 应该是跟 NV 高低配
不然大晶圆挺贵的,而且容量有限


--【伍】--:

这个东西谁又能说的准呢,物理硬件和计算成本还有汇率都息息相关。国内的话就和计算成本GPU显卡相关了


--【陆】--:

摩尔定律是不是又要开始生效了呢,总之时代是在进步的,新兴事物刚开始都很昂贵,早期的大哥大,电脑,汽车


--【柒】--:

普通人还是老老实实地使用中转站。使用国外的大模型,这样不仅质量最好,而且不会有利益损失


--【捌】--:

感觉还在高速发展期,迟早会嵌入现有的社会生态,变成类似水电气一样的基础消耗与设施,价格也会下来的,交给时间就行


--【玖】--:

但通信基站设施跟gpu这种资源相比还是有很大不同的


--【拾】--:

长期看 token 价格很难一直维持高位吧。现在各家价格都抬高,主要还是算力紧、芯片贵、推理成本高,以及厂商还在高速投入训练和基础设施建设,(再加上 OpenClaw 这种把 CodingPlan 吃成 TokenPlan 的东西 )但长期只要国产芯片、供电、数据中心和模型工程优化继续推进,单位智能成本大概率会被嗖嗖打下来。

国内还有一个优势,就是应用场景足够大。政务、工业、教育、客服、办公、制造业、消费端,到处都有大量真实需求。只要这些场景能真正消化算力并产出效果,AI 就不只是烧钱讲故事,而是有机会进入实体经济循环。这样厂商也更有动力把 token 价格压低,让 token 真的像电一样处处流动,用规模换市场,而不是单纯靠涨价回本。

所以我倾向于认为,未来高端模型可能仍然会有溢价,但普通人和普通业务使用的 token 成本会逐步下降,最后更像水电、云服务一样,成为基础设施消耗品。

毕竟各位佬友也能体会出来,从 GPT-5.2 之后,coding 场景已经开始触及边际效应了。很多时候甚至只需要 GLM-5.1,经验丰富的佬友们搭配Harness就可以用出特别好的效果。事实上大部分人和大部分场景需要的并不是最顶级的智能,而是恰好能在这个场景里干好活的智能。

最近很多一两千亿参数量的较小模型,就是特定场景下成本和效率的综合最优解。在价格只有顶模十分之一甚至更低的情况下,某些任务上效果甚至还会更好,那为啥不用呢?随着这类模型逐渐从通用 LLM 手里接过本来就更适合它们的位置,先前被浪费的智能会被更充分地利用,整体价格自然也有下降空间。

再有一点,现在 agent 也在逐步优化。从 OpenClaw 走向 Hermes,本质上也代表着智能使用场景和使用模式的进化:从啥活都直接让模型干,到后面把经验固化、流程复用、重复步骤工具化。智能体在应用中的地位也会逐渐从底层重复劳动中上升,和脚本、工作流等等部分各自分工,单位 token 的使用效率也会进一步提升。

再大胆一点想,未来模型可能会在训练和推理层面出现更高级的分工分化,类似 Opus 负责规划、Composer 负责执行这种“在其位谋其政”的模式。把专家能力从模型层面、任务层面拆开之后,不管是训练成本、迭代成本还是推理成本,理论上都有继续下降的空间,也会更加灵活。未来维护几个高智能的千亿模型,分配迭代和训练,以及智能调配和应用,比弄个万亿模型的流程和需要好多了吧。

当然,短期内 token 价格还是会受芯片啊算力啊等等许多因素影响,目前就是阶段性涨价的位点(还真让罗福莉说中了啊)。但长期看,token 价格如果太高,本身就会限制 AI 普及和应用扩张。对于真正跑得起模型的巨头来说,他们大概率宁愿短期少赚一点,也要先把用户认知和使用习惯铺开,(从 OpenClaw 这波浪潮里其实也能窥见一斑,各家都在拼命近乎赔本的提升群众人认知来拓展消费市场)。所以我觉得 token 没有太多长期维持高价的空间。

最后幻想一下,万一过个两三年可控核聚变真突破了呢嘿嘿


--【拾壹】--:

国外大模型的价格也不是一成不变。现在还能接受,以后呢


--【拾贰】--:

多少年前上网拨号,限制wifi,如今?时间会抹去这些的


--【拾叁】--:

后面肯定会回归正价的放心。参考vps的发展


--【拾肆】--:

模型是进步的,同样数量的卡能跑的模型的性能只会越来越高


--【拾伍】--:

我想大概核聚变能源可以完美控制时,将普及全球替代其他能源,这样能源贫价,创造无上限,各行业高速发展,token价格可能低到无法想象,或许已被其他方式替代了,哈哈


--【拾陆】--:

技术一直在进步,比如前几天openai投资200亿搞的芯片方案叫啥来着(晶圆不在分割 改为使用整块) GPT说token的成本能做到现在的1/5~1/3 减少了线束传输信号 电耗大幅降低 芯片利用率也更好


--【拾柒】--:

B300 才刚刚开始正式部署
Rubin / Vera 蓄势待发
不太可能不断往上涨


--【拾捌】--:

后面有没有可能会变成类似于现在流量的使用形式?由几个大平台提供类似于流量一样的包月套餐(限速、封顶,高速,定向),然后用户购买套餐日常使用。


--【拾玖】--:

还是太贵了,不过也越来越好了,我是用不起了

标签:人工智能