.png)
上星期,深圳悄没声息地干了一件大事:启用了全国第一个万卡智能计算集群。用的不是英伟达,是华为的昇腾910C芯片。算力多少?11000千万亿次浮点运算。加上去年已经满负荷跑的那个3000千万亿次的老集群,现在这个算力中心的总能力已经到了14000千万亿次。更让人侧目的是,近50家机构已经签了框架协议,两期整体预订率92%——还没完全建好呢,市场已经抢着要了。
这组数字放到全国大盘子里看,其实也不算太夸张。中国信息通信研究院的数据显示,到2025年6月,中国总算力已经达到96.2万千万亿次,占了全球21%,同比增长73%。深圳这一步,不过是全国AI基建大爆发的一个切片。但它的象征意义很重:这是第一个完全用国产先进芯片堆出来的万卡级集群。换句话说,中国在算力“自主可控”这条路上,已经从单点突破走到了规模部署的阶段。
华为的昇腾910C,按照DeepSeek的研究,性能大概相当于英伟达H100的六成。差距是明摆着的。但国内买家好像不太在意,或者说等不及了。路透社前段时间报道,字节跳动、阿里巴巴这些大厂已经在计划采购华为下一代的昇腾950PR了。原因很现实:兼容性更好,跟英伟达的CUDA生态能接上轨,响应速度也更快。华为据说准备在年底前推出大约75万颗950PR芯片。这说明什么?说明哪怕性能差点,但“能用”加“有货”这两个条件,已经足够让国内巨头真金白银地押注了。
深圳市政府也不满足于只当个算力“房东”。他们出了一份三年蓝图,目标到2028年把深圳变成AI计算枢纽。具体来说,要“跨越式”提高AI服务器产量,还要大幅提升芯片、存储、光模块这些关键部件的全球市场份额。到2026年,深圳计划让实时AI算力超过80000千万亿次——比现在这个万卡集群还要翻好几倍。这个目标挺激进的,但想想深圳有华为、有腾讯、有一大堆机器人和AI创业公司,需求端确实撑得住。
有个机器人初创公司X Square Robot的副总裁跟当地媒体说,深圳算力的规模和质量提升,已经让这座城市成了全国领跑者。这话不算夸张。但问题是,算力建起来了,能不能真正用出效率?万卡集群的管理、调度、散热、稳定性,全是工程上的硬骨头。华为的单卡性能还追不上英伟达,但集群的“有效算力”取决于互联、软件栈和模型适配,这恰恰是中国厂商有可能弯道超车的地方。从92%的预订率来看,市场对这套组合拳是买账的。
往大了说,深圳这一步也是全国算力竞赛的一个缩影。美国对先进芯片的出口管制越收越紧,中国的对策不是单纯囤货,而是用国产替代把规模铺开。单卡效率打点折扣没关系,用数量换质量,用集群换单卡,照样能撑起大模型训练和推理的需求。当然,这条路还长着呢。950PR芯片计划出货75万颗,跟英伟达动辄几百万颗的规模比起来,还有量级上的差距。而且华为的产能跟不跟得上、良率稳不稳定,都是未知数。
但不管怎样,深圳这个万卡集群是一个信号:中国AI算力的“底座”正在从纸面落到地面。它不是实验室里的样品,不是新闻稿里的概念,而是已经通了电、跑了起来、被企业抢着用的基础设施。对华为来说,这是一次压力测试——芯片不仅要造出来,还要在万卡规模下稳定运行。对深圳来说,这是一场豪赌——把算力当成城市的核心竞争力,去吸引AI企业和人才。对整个行业来说,这更像一句潜台词:美国不卖,我们就自己造,而且造得出来、用得上。
当然,60%的性能差距不会一夜消失。但当一个国家开始用“万卡集群”这样的量词来定义自己的进步时,技术追赶的速度往往会超出预期。毕竟,算力不仅是工具,也是信心的标尺。深圳把这把尺子立在了自己家门口。