
在任何一个新兴产业的早期,最难回答的问题从来不是"技术能不能做到",而是"这门生意能不能赚钱"。
AI产业已经走过了技术验证的阶段。现在,它正在接近一个更关键的拐点:商业逻辑的自洽。
高盛5月5日发布的报告,从两个维度刻画了这个拐点的轮廓,一个是需求侧的爆发,一个是成本与价格之间剪刀差的形成。这两件事同时发生,而且方向都对,这才是真正值得关注的地方。
先说需求。
高盛预计,到2030年,消费端和企业端AI智能体合计将推动全球token消耗量较2026年水平增长24倍,达到每月约120千万亿个token。如果把时间轴拉长到2040年,当企业端智能体达到峰值采用率,这个数字将进一步扩大至55倍。
这些数字,读起来像是科幻小说里的量级,但理解它的方式,不是把它当成一个预测,而是把它当成一个关于AI智能体本质的逻辑推演。
AI智能体与此前的AI助手之间,有一个根本性的区别:它不是等待人类提问然后给出回答,而是主动执行多步骤的复杂任务,自主调用工具,在没有人类实时介入的情况下完成工作流。这种工作模式,意味着每一个被委托给AI智能体的任务,所消耗的token量,会是简单问答模式的数十倍甚至数百倍。当一个企业把财务分析、代码审查、客户服务、市场研究等一系列业务流程交给AI智能体自主处理,整个企业的token消耗量就会以一种与人类员工数量不再直接相关的方式指数级增长。
这正是高盛预测的背后逻辑:不是更多的人在使用AI,而是AI在做的每一件事变得更复杂、更深入、更自主,每一件事所需要的计算量远超此前任何一种使用模式。
24倍或55倍的增长,不是市场规模扩大的结果,而是使用深度增加的结果。这两者之间的区别,对于理解这个预测的含义至关重要。
然后是那个剪刀差,这才是报告里真正改变商业逻辑的部分。
过去两年,AI服务的token定价以每年约40%的速度下降,这对用户是好消息,对提供AI服务的公司则构成了持续的盈利压力。当服务价格以如此快的速度下降,而基础设施建设的资本开支还在持续增加,整个行业的商业模式就面临一个令投资者不安的问题:规模越大,亏损越多。
但高盛的报告指出,这个价格下降的趋势正在趋于稳定,主流大模型的token定价已经从每年约40%的降幅趋于稳定,甚至出现了小幅回升。
与此同时,驱动AI计算的芯片,其每token算力成本依然在以每年60%至70%的速度持续下降。
这两条曲线之间,形成了一个剪刀差:服务定价稳定了,但生产服务的成本还在快速下降。在任何一个行业里,这个组合都意味着同一件事:利润率正在改善,而且改善的速度将随着时间的推移加速。
理解这个剪刀差对AI基础设施投资的含义,需要把它放在过去数年AI行业一直面临的核心质疑里来看。批评者一直指出,AI公司正在以补贴性的低价提供服务,用风险投资的资金掩盖真实的服务成本,整个商业模式建立在不可持续的定价逻辑上。这个批评有其真实性,尤其是在AI服务价格持续快速下降的阶段。
但高盛的数据显示,这个阶段正在结束。当token定价趋于稳定,而算力成本继续以60%至70%的年速下降,AI服务商的每一次向用户收费,都比上一年以更低的边际成本实现。这不是补贴逻辑,这是真实的商业规律:当技术成熟度达到某个节点,规模效应和技术进步共同压缩成本,而竞争格局的稳定使得价格不再继续崩落,行业进入一个自我强化的盈利扩张周期。
这个拐点的到来,对AI基础设施的资本开支逻辑有着直接的影响。过去,质疑AI基础设施投资的核心论点之一,是这些投资的回报时间表极不确定,因为定价持续下降意味着投资的商业回报会被价格侵蚀,资本开支可能永远无法实现足够高的回报率。但如果定价趋于稳定,而需求将增长24倍乃至55倍,那么今天投入的每一分钱的算力,未来将服务于一个规模远大于今天的市场,且这个市场的定价足以支撑合理的投资回报。
这就是高盛所说的,AI基础设施的大规模资本开支或将因利润率改善而获得更可持续的经济支撑,背后的完整逻辑。
当然,这个逻辑成立有其前提:需求的增长必须如期到来,定价的稳定必须能够维持,成本的下降必须继续按照历史轨迹推进。每一个前提,都存在被打破的可能性,而任何一个被打破,都会对整个逻辑链条产生影响。
但在当前这个时间节点,三个前提都在朝着支持这个逻辑的方向运动。智能体应用的爆发正在以可见的速度发生,全球token消耗量的实际增长数据正在不断刷新预测区间的上限,定价的企稳是来自市场竞争格局逐渐清晰之后的自然结果,而芯片成本的下降是一个有充分历史先例支撑的技术趋势。
AI这门生意,正在开始真正站得住脚。