.jpeg)
周三,谷歌扔出名叫“TurboQuant”的AI内存压缩技术。受此影响, 美股的存储芯片板块盘中大跌。美光科技、闪迪这些巨头的股价盘中直接大跳水。
那谷歌这个新技术到底牛在哪,为什么能把卖芯片的给吓崩?
简单来说,现在运行那些聪明的大模型,极其极其吃内存。而谷歌的这个TurboQuant算法,宣称能在不牺牲AI智商的前提下,把大模型运行时的缓存内存占用,硬生生砍掉6倍!并且性能最高能飙升8倍!
面对这种逆天数据,炒股的人第一时间想到的是什么?既然你的AI现在只需要以前六分之一的内存就能跑,那谁还会去买那么多昂贵的存储芯片?所以,大家本能的反应就是,卖硬件的要完蛋了,赶紧抛!
但华尔街有分析师认为市场反应过度,还给出了两个非常硬核的抄底逻辑。
第一,别被公关数据忽悠了。Lynx Equity Strategies分析师KC Rajkumar戳破了一个盲点,即谷歌宣称的性能提升8倍,是拿这个新技术去跟极其老旧的32位模型去比的。这就像你拿今天的高铁去跟几十年前的绿皮火车比速度,当然快得多。实际上,现在的AI推理早就用上了更先进的压缩技术,谷歌这次只是优化了瓶颈,远没有到毁灭需求的地步。而且,这个技术只在AI干活(推理)的时候有用,在AI上学(训练)阶段该烧的内存,一分钱都省不下来。
第二,也是最核心的一个经济学常识,杰文斯悖论。
摩根士丹利直接把这个百年定律搬了出来。什么是杰文斯悖论呢?当年英国人发明了更省煤的蒸汽机,大家以为全英国的煤炭消耗量会大幅下降。结果呢?因为蒸汽机效率高了、变便宜了,连各种小作坊都开始用,最后整个英国烧掉的煤反而呈指数级暴增!
其实把这个逻辑套在今天的AI硬件上简直完美契合。如果谷歌的技术真的把运行AI的内存成本打下来了,企业绝对不会想着,哎呀我省钱了,少买点芯片吧。他们真实的反应会是:“太好了!成本这么低,那我就可以把AI塞进每个人的手机里、塞进汽车里、塞进家里的烤箱里!”
也就是说,效率的革命非但不会抹杀硬件需求,反而会把AI的部署门槛彻底打穿,激活一个比现在庞大十倍、百倍的全场景AI生态。到时候,大家对存储芯片的总需求不仅不会少,反而会变成一个深不见底的黑洞。
所以说,这项看似在革硬件命的技术,在资本眼里,反而是一把彻底引爆AI规模化落地的发令枪。这也就难怪华尔街会在散户恐慌抛售的时候,果断进场抢筹码了。