
人工智能基础设施的成本,正在以一种近乎失控的速度膨胀。
未来几年,微软、Meta、亚马逊、谷歌、甲骨文等科技巨头,可能会为AI投入数万亿美元资本支出,只为了满足市场对ChatGPT、Claude以及各类AI Agent的需求。但真正的问题已经不只是“烧钱”,而是AI正在把全球经济拖入一种新的通胀结构。
过去几年,市场一直认为AI革命最大的受益者是应用层。谁拥有最多用户,谁就能吃掉下一代互联网入口。但现实却越来越像另一种版本:真正赚走绝大多数利润的,并不是做AI应用的人,而是控制“卖铲子”的芯片公司。
AI需求爆炸式增长,首先推高的不是软件价格,而是GPU、HBM高带宽内存、CPU、电力设备、数据中心土地、冷却系统甚至变压器的价格。
整个产业链,正在出现一种新的现象:AI通胀。
微软最新预计,仅零部件涨价,就将使其全年资本开支额外增加250亿美元。Meta也上调了资本开支预测,其中大部分新增成本来自内存芯片。
这意味着,即使科技公司愿意疯狂砸钱,AI基础设施的成本上涨速度,也已经开始超出它们原本的预期。
背后最核心的问题,是AI产业进入了典型的“供应瓶颈经济”。
当所有公司都同时抢购同一种资源时,真正拥有定价权的,不再是互联网平台,而是产业链最上游。
比如英伟达。过去几年,英伟达GPU几乎成为AI时代的“石油”。一块高端GPU售价数万美元,毛利率却高达75%。市场甚至开始把这种现象称为“英伟达税”。
原因很简单。全球几乎所有AI公司,都害怕自己在超级智能竞赛中掉队。于是,大家都开始疯狂囤卡。
对于OpenAI、Anthropic、Meta这种级别的玩家来说,GPU已经不是普通硬件,而是战略资源。即便价格暴涨,它们也不得不买。这种“不计成本”的抢购,正在形成一种极其罕见的产业结构。
科技巨头们拼命烧钱,但真正赚得最狠的,却是芯片供应商。这也是为什么过去一年,全球半导体股票的表现,远远跑赢多数大型科技平台。
因为AI世界里,最稀缺的已经不是流量,而是算力。而且问题正在进一步恶化。AI不仅吞噬GPU,还开始吞噬内存。
如今最先进的AI加速器,需要大量HBM高带宽内存。结果就是,SK海力士、三星、美光这些DRAM厂商突然从传统周期股,变成了资本市场的新宠。
SK海力士最新季度营业利润率甚至达到72%。这已经不是普通制造业利润率,而更像垄断资源行业。
市场开始出现新的词汇:“内存税”。数据中心对内存的吞噬速度实在太快了。
研究机构预计,到2026年,超大规模数据中心资本开支中,内存采购占比可能达到30%,而2024年这一数字只有8%。
换句话说,AI基础设施正在把整个半导体行业从“周期行业”,变成一种长期供不应求的战略行业。
而这会带来一个更危险的后果。AI正在挤压普通消费电子的芯片供应。因为芯片厂商更愿意把产能给利润更高的数据中心客户,而不是手机、PC或者游戏机厂商。
于是,普通消费者开始成为AI竞赛的“隐性买单人”。未来几年,人们可能会发现:手机越来越贵。游戏机越来越贵。PC越来越贵。
甚至连电费都越来越贵。因为AI数据中心不仅抢芯片,也抢电力。
大型数据中心的耗电量已经接近中小城市水平。美国部分地区电网甚至开始因为AI数据中心扩张而面临压力。AI不再只是科技问题,而开始演变成能源问题。
再进一步,它甚至会变成宏观经济问题。因为AI带来的,并不是传统互联网时代那种“轻资产创新”。
互联网平台最大的优势,是软件边际成本极低。但AI完全不同。AI的每一次推理,每一次生成,每一次Agent执行任务,都在持续消耗真实的物理资源。
它烧芯片。烧电。烧冷却系统。烧服务器。烧土地。本质上,AI更像是一场工业革命,而不是单纯的软件革命。
而工业革命,从来都伴随着通胀。这也是华尔街越来越担忧的问题。
如果AI资本开支继续失控,美联储可能会发现,即便经济放缓,也很难降息。因为AI正在制造新的结构性通胀。
Pimco经济学家已经警告,AI基础设施需求正开始向消费价格传导。这可能意味着,AI繁荣越疯狂,全球利率中枢反而越难下降。这会彻底改变过去十几年互联网行业赖以生存的低利率环境。
更重要的是,如今AI产业还处于最早期阶段。现在大家争夺的,还只是训练模型。接下来真正爆炸的,可能是Agent时代。
当数亿AI Agent开始全天候运行,CPU、GPU、内存、电力需求还会再上一个数量级。届时,AI可能不再只是“互联网的新应用”。
它会变成一种新的全球基础设施。就像电力系统、铁路系统、石油系统那样。
而任何基础设施革命,都会经历一个共同阶段:先是狂热投资。然后是资源短缺。最后是全社会为成本买单。
今天的AI产业,已经隐约出现这种影子。问题在于,市场仍然低估了这场AI军备竞赛真正的代价。
大家都在讨论超级智能什么时候到来,却很少有人讨论:谁来支付这场超级智能的账单。