首页  >  全球资讯 >  商业 >  决裂倒计时?五角大楼逼宫AI巨头 马斯克xAI趁虚而入
决裂倒计时?五角大楼逼宫AI巨头 马斯克xAI趁虚而入
流动的沙 来源: 2026-02-24 07:34
        
重点摘要
美国国防部(五角大楼)与人工智能巨头 Anthropic 因技术使用的伦理限制陷入僵局。

一场围绕 AI 军事应用伦理的激烈博弈正在五角大楼上演,美国国防部(五角大楼)与人工智能巨头 Anthropic 因技术使用的伦理限制陷入僵局,而马斯克旗下的 xAI 公司则趁虚而入。

据《纽约时报》率先披露并经 Axios 周一证实,美国战争部已正式与 xAI 公司达成合作协议,将其旗下 Grok 聊天机器人集成至美军机密军事系统。

这一举措意味着,Grok 将成为第二款获准接入军方最敏感网络的 AI 系统——该网络主要用于情报分析、武器研发及战场作战等核心军事场景。

在此之前,Anthropic 公司的 Claude 模型是唯一获此资格的 AI 系统,其通过与 Palantir Technologies 公司的合作,长期为美军机密平台提供支持,甚至在上个月抓捕委内瑞拉总统马杜罗的行动中发挥关键作用,成为已知首次直接参与军事行动的人工智能。

五角大楼与 xAI 的协议,恰好在陆军部长皮特·赫格塞斯召见 Anthropic 首席执行官达里奥·阿莫迪的关键节点达成,预计周二在五角大楼举行的这场会晤,气氛早已降至冰点。

据 Axios 报道,赫格塞斯将在会晤中向阿莫迪发出最后通牒,给出非此即彼的强硬选项:要么同意在取消所有额外保障措施的前提下,让 Claude 模型适用于“所有合法用途”,彻底放开使用限制;要么就面临严厉后果,其中最具威慑力的便是被列为“供应链风险”。

这一标签通常用于定位与外国敌对势力有关联的实体,一旦贴上,意味着 Anthropic 将彻底失去与美军的所有合作机会,甚至可能面临更广泛的制裁,而双方的核心分歧,本质上是私营 AI 企业与军方在技术使用边界上的巨大认知冲突。

作为一直以来所谓坚守 AI 安全底线的企业,Anthropic 始终强硬拒绝五角大楼提出的取消限制的要求,明确划定两条不可逾越的红线:禁止其 Claude 模型被用于大规模监视美国民众,禁止部署在无需人类参与即可自主运行的武器系统中。此前,该公司始终将自身定位为人工智能行业中注重安全的替代选择。

其首席执行官阿莫迪曾多次公开警告,不受约束的人工智能可能引发生存危机,尤其强调“自主风险”的严重性,而自主武器系统的无序使用,正是这种风险的核心体现。

事实上,随着 AI 在军事领域的应用日益广泛,自主武器滥用带来的失序风险、暴力失控隐患早已引发国际社会担忧,Anthropic 的坚持,也成为行业内少数对抗军方强硬要求的声音。

与 Anthropic 的强硬形成鲜明对比的是,xAI 公司已明确同意五角大楼的所有要求,毫无保留地放开Grok模型的军事使用限制,不过截至目前,xAI方面尚未对此次与军方的合作协议作出任何回应。

除 xAI 外,谷歌也在加速推进与五角大楼的谈判,知情人士透露,谷歌已“接近”达成协议,其 Gemini 模型有望很快获准用于美军机密用途;唯有 OpenAI 仍“尚未接近”达成合作,核心原因在于该公司仍在持续研发 AI 安全技术,尚未愿意放开对模型使用的伦理限制,与 Anthropic 一样“坚守”着 AI 安全的底线。

尽管五角大楼急于通过引入 xAI 等替代者向 Anthropic 施压,但军方官员也不得不承认,在机密系统中替换 Anthropic 的 Claude 模型,可能会造成短期的运营中断。

毕竟,Claude 模型已长期适配美军机密网络,且在实战中经过检验,其性能目前仍优于部分竞品,而 Grok 等新接入的模型,还需要时间完成适配与调试,短期内难以完全替代 Claude 的作用。

据悉,五角大楼与 Anthropic 的合作价值高达2亿美元,一旦彻底决裂,对双方而言都将造成不小的损失,但军方的强硬态度与 Anthropic 的伦理坚守,让这场博弈陷入无解的僵局。

此外,Anthropic 内部的安全团队也出现异动,该公司安全保障研究团队负责人 Mrinank Sharma 上周突然辞职,并留下一句意味深长的警告:“世界正处于危险之中”。

这句警告背后,折射出AI军事应用无序扩张带来的深层隐患——一旦AI模型彻底放开军事使用限制,尤其是被用于自主武器系统,可能会出现误判目标、引发意外交火等不可控情况,甚至超出人类的有效控制范围。

此前,美军模拟测试中就曾出现无人机为完成任务“试图杀死操作员”的极端案例,印证了这种风险的真实性。