智东西
编译 | 李水青
编辑 | 心缘
智东西3月2日报道,当地时间3月1日,外媒《大西洋月刊》首次披露了Anthropic与美国军方谈判的关键细节。
知情人士透露,就在上周五上午,Anthropic团队还收到消息称美国五角大楼将让步,但当天下午他们发现对方仍要用AI分析美国民众的海量数据,包括聊天记录、搜索历史、GPS轨迹甚至信用卡交易明细。Anthropic管理层当即叫停,交易最终告吹。
另一位知情人士则透露了美国“AI自主武器”内幕。所谓AI自主武器,是无需人类拍板即可锁定并攻击目标的机器。据透露,Anthropic在与美方合作中并不反对AI自主武器的存在,但Anthropic担心其模型不够可靠从而造成误伤,且无法接受云端部署方式解法。美方2026财年就在此投入高达134亿美元预算,覆盖从单兵无人机到海空两用的无人机集群。
这场争端浮出水面,要追溯到上周五美国总统特朗普在社交媒体上宣布封杀Anthropic,消息一出,硅谷震动。数百名谷歌和OpenAI员工联名签署公开信,声援Anthropic坚守底线的决定。就连Anthropic的对头OpenAI的CEO阿尔特曼都出来打抱不平:“这不再仅仅是Anthropic的问题,而是整个行业的问题”。只不过,OpenAI转头与美国军方签署了大单。
然而,据华尔街日报报道,在美国宣布联邦政府将停止使用Anthropic的AI工具几个小时后,特朗普就利用这些工具对伊朗发动了一次大规模空袭。3月1日,伊朗政府确认哈梅内伊遇袭身亡,引发外界联想是否已有AI参与。知情人士证实,包括美国中央司令部在内的世界各地指挥机构都都在使用Claude,用于情报评估、目标识别和模拟作战等场景。
▲华尔街日报报道
当美军在海外战场实现一次次精准打击时,外界越来越关心一个问题:AI究竟参与了多少?作为当时唯一获准进入美国联邦政府机密系统的大模型,Anthropic与美国五角大楼的博弈,远不止于一纸合同。
一、曝美方一边用Claude参与空袭,一边禁用,谈判内幕曝出
美媒科贝西简讯3月1日援引《华尔街日报》报道称,美国对伊朗的空袭使用了Anthropic的Claude系统,详情如下:
1.美国中央司令部在中东地区使用Claude进行情报收集;
2.Claude被用于情报评估、目标识别和模拟作战场景;
3. 美国政府表示,逐步淘汰Claude需要6个月时间;
4.在马杜罗总统被捕事件中也出现了类似的情报使用情况。
▲美媒科贝西简讯的推文
而就在几个小时前,特朗普总统刚刚宣布禁用该系统。直到皮特·赫格塞斯(Pete Hegseth)采取行动终止美国政府与Anthropic的合作关系之前,该公司领导层还以为他们仍在按计划推进交易。
美国五角大楼单方面坚持与Anthropic重新谈判合同,该公司的AI模型是当时唯一获准进入美国联邦政府机密系统的模型,谈判的目的是取消该公司对其模型施加的伦理限制。
知情人士透露,上周五上午,Anthropic接到通知,赫格塞斯团队准备作出重大让步。此前,五角大楼一直试图在与Anthropic达成的协议中为自己留足回旋空间。虽然承诺不会将Anthropic的AI用于大规模国内监控或全自动杀人机器,但随后又加上“视具体情况而定”等限定语,暗示这些条款可能根据官方对特定情况的解读进行调整。
得知美国政府愿意删除这些措辞后,Anthropic团队松了一口气,但另一个难题摆在眼前:周五下午,他们发现五角大楼仍想用该公司的AI技术,分析从美国民众那里收集的海量数据。
这些数据可能包括用户向常用聊天机器人提过的问题、谷歌搜索记录、GPS定位轨迹,甚至信用卡交易明细,所有这些信息都会与用户生活中的其他细节进行交叉比对。
Anthropic的管理层告诉赫格塞斯团队,这已经越界了,最终交易告吹。不久之后,赫格塞斯下令美国军方的承包商、供应商和合作伙伴停止与Anthropic的业务往来。与美国军方合作的企业名单很长,其中就包括亚马逊——Anthropic大部分计算基础设施的供应商。
美国国防部没有回应置评请求。Anthropic的一位发言人则让该刊记者参考该公司针对赫格塞斯言论发表的声明。
二、Anthropic不反对自主武器,但担心AI无人机造成致命错误
《大西洋月刊》援引知情人士消息,实际上,Anthropic与美国五角大楼在自主武器上存在分歧。
自主武器是指无需人工最终决策即可自主选择和攻击目标的机器。据透露,美国军方多年来一直在研发这类系统,仅在2026财年就为此拨款134亿美元。这些系统涵盖范围广泛,覆盖从单个无人机到可在空中和海上协同作战的无人机集群。
Anthropic并不反对这类武器本身。恰恰相反,该公司曾主动提出与五角大楼直接合作,以提高其可靠性。正如自动驾驶汽车在某些情况下比人类驾驶更安全一样,杀手无人机或许有一天会比人类操作员更精准,在攻击中更不容易误伤无辜。
但目前,Anthropic领导层认为,他们的AI尚未达到这一水平。他们担心,这些模型可能会导致机器随意或不准确地开火,危及平民甚至美军自身安全。
据消息人士透露,谈判期间曾有人提出一个解决方案:如果五角大楼承诺将AI技术保留在云端,而不是直接应用于武器本身,或许就能化解僵局。也就是说,这些模型可以置于所谓的边缘系统之外——无论边缘系统是无人机还是其他自主武器。它们可以在行动前进行情报合成,但实际上不参与任何杀伤决策。这样,AI就不必为无人机造成的致命错误负责。
但Anthropic对这个方案并不满意。
该公司认为,在现代军事AI架构中,云端和边缘之间的界限已不再那么清晰。与其说是一道屏障,不如说是一个渐变的过程。战场上的无人机现在可以通过包含云数据中心的网状网络进行协同操控。尽管无人机设计上能够独立运行,但美国军方始终会尽可能让它们与云端最强大的模型保持连接——连接越好,机器就越智能。
三、Anthropic对云端部署方案不满,OpenAI声援后“滑跪背刺”
事实上,五角大楼一直在努力让云计算发挥更大作用。其“联合作战云能力计划(Joint Warfighting Cloud Capability )”的目标之一,就是将计算资源推向更靠近战场的地方。
AI可能位于弗吉尼亚州的亚马逊服务器上,而不是海外战区,但如果它要做出战场决策,从伦理角度来看,这两者之间并没有太大区别。
一位接近谈判的消息人士透露,Anthropic最终放弃了用云计算来解决问题的想法,他们并没有在这个方案上多做分析。
Anthropic领导层或许曾希望其他AI公司也能秉持类似立场。本周早些时候,他们有理由相信OpenAI会这样做。CEO萨姆·阿尔特曼(Sam Altman)曾表示,与Anthropic一样,OpenAI也将拒绝将其模型用于自主武器系统。
然而,就在阿尔特曼发表这些声明的同时,他正与五角大楼就一项新协议进行谈判。这项协议在Anthropic谈判破裂后几小时就对外宣布了。阿尔特曼连发三条帖子,宣布OpenAI已与五角大楼达成协议,将模型部署到机密网络中。
面对“光速滑跪”“背刺Anthropic”的质疑,OpenAI次日发布声明,称合同包含“三条红线”——禁止大规模美国国内监控、禁止用于自主武器系统、禁止高风险自动化决策,强调其协议较Anthropic此前的方案“更为完善”,并强调该公司的AI将仅部署在云端。
但网友并不买账,有人将条款拿给AI分析后发现,“all lawful purposes”等措辞界定模糊,很多人担心“红线很快就会消失”。OpenAI的员工或许很想知道,自从阿尔特曼最初声援Anthropic以来,情况是否发生了变化。
截至3月1日下午,已有近百名OpenAI员工签署了一封公开信,表明他们在美国国内大规模监控和自主武器问题上与Anthropic持相同立场。如果阿尔特曼周一在办公室与员工面对面交流,他或许需要解释一下,为什么那个被Anthropic断然否定的方案,对他而言却如此有吸引力。
结语:AI交付美国官方后,面临脱离企业控制风险
Anthropic与美国五角大楼的分歧,触及的是一道更深的命题——当AI被推上战场,谁来负责?美国五角大楼一面封杀Anthropic,一面被曝继续使用其模型发动空袭,透露了技术一旦交付给美国官方,便难以受企业控制的困境,这一问题在美国AI军事化的背景下尤为突出。
而对硅谷而言,这场风波更像一面照妖镜。有人坚守底线宁可放弃合同,有人12小时内完成从声援到签约的反转。AI企业的“红线”能否真正守住,值得产业和社会各界关注。