2026年2月,白宫突然宣布封杀Anthropic(其开发的Claude模型是美国军方机密网络中唯一部署的商业前沿AI),禁止联邦机构使用其技术,并将其列为“国家安全供应链风险”(通常针对对手国企业);而OpenAI则在声援Anthropic“红线”立场后,迅速与国防部达成部署模型的协议。这一事件本质是AI伦理与国家安全的剧烈冲突,也是科技企业“安全理想”与“现实政治”的碰撞,背后折射出AI军备竞赛升级、科技巨头利益权衡等多重逻辑。
一、事件核心脉络:从“安全红线”到“封杀”的48小时
Anthropic与美国政府的矛盾源于两条“不可触碰的红线”。
禁止用于大规模国内监控:Anthropic认为,即使现行法律允许政府收集公开数据,AI的高处理速度和大范围连接会将“合法收集”升级为“大规模监控”,威胁公民自由;
禁止用于完全自主武器:Anthropic强调,当前AI系统可靠性不足,无法驱动“无人类干预的自动杀伤武器”(如自动选择目标的无人机),否则将危及美军士兵和平民。
2026年2月,五角大楼向Anthropic下达最后通牒:2月27日前移除上述限制,否则终止2亿美元合同、援引《国防生产法》强制征用,或列为“供应链风险”。Anthropic CEO达里奥·阿莫迪(Dario Amodei)明确拒绝,称“凭良心无法同意”。
2月27日,特朗普在Truth Social发布全大写愤怒长帖,痛斥Anthropic为“左翼疯子”,指责其“用服务条款勒索战争部”,并下达行政命令:所有联邦机构立即停止使用Anthropic技术,国防部同步将其列为“供应链风险”,要求与美军有业务往来的承包商(如亚马逊AWS、Palantir)切断与Anthropic的合作。
而OpenAI则在事件前后上演“反转”:先是CEO萨姆·奥尔特曼(Sam Altman)声援Anthropic的“红线”立场,称“与Anthropic持有相同原则”;但仅隔一天,便宣布与国防部达成协议,将模型部署至机密网络,称“合作符合公司伦理准则”。
二、Anthropic被封杀的深层原因:安全理想与政治现实的冲突
Anthropic的“安全优先”理念是其被封杀的根本动因,这种理念与特朗普政府的“国家安全优先”立场存在本质冲突。
1. “安全即品牌”的商业护城河 vs 政治“不正确”
Anthropic的核心竞争力在于“安全可控”,其“宪法AI”(Constitutional AI)通过顶层价值观(如《联合国世界人权宣言》)训练模型,使其成为“有道德、可解释”的AI。这种理念为企业(金融、法律、医疗)和政府(军方)提供了“合规保证”,使其营收快速增长(2025年营收140亿美元,估值3800亿美元)。
但在特朗普政府眼中,这种“安全话语”是“左翼精英对军队的道德管束”。特朗普将Anthropic斥为“激进左翼”“觉醒公司”,国防部长赫格塞斯(Pete Hegseth)批评其“试图以自己的道德标准凌驾于国家行动之上”。Anthropic的“安全理想”被标签化为“政治不正确”,成为其与政府谈判的“原罪”。
2. “有效利他主义”的标签 vs 硅谷“少管制、快奔跑”的信条
Anthropic的理念源于“有效利他主义”(Effective Altruism, EA),该运动将AI存在性风险(如灭绝人类)列为最需警惕的威胁。Anthropic的早期员工多来自EA社区,其“负责任扩展政策”(RSP)要求“建立安全措施后才能扩展模型能力”。
但EA运动因FTX创始人山姆·班克曼-弗里德(Sam Bankman-Fried)的刑事定罪案受损,“有效利他主义者”成为敏感标签。更关键的是,这种“安全优先”的理念与硅谷“少管制、快奔跑”的自由意志主义信条冲突——科技企业认为,过度强调安全会阻碍创新,甚至成为“监管护城河”(已成功的公司用安全话语扼杀竞争者)。
3. 政治站队:支持哈里斯 vs 特朗普的“硅谷敌人”
Anthropic的政治立场也是其被封杀的重要原因。阿莫迪公开支持哈里斯(2024年美国大选民主党候选人),并与拜登政府关系密切,成为特朗普政府在硅谷的“眼中钉”。特朗普第二任期开始后,白宫AI与加密货币顾问大卫·萨克斯(David Sacks)率先给Anthropic贴上“觉醒”标签,阿莫迪的回应未能缓和矛盾。
三、OpenAI“接盘”的逻辑:商业利益与伦理的权衡
OpenAI在声援Anthropic后迅速“接盘”,本质是商业利益驱动下的“伦理妥协”。其协议的“聪明之处”在于。
1. “表面合规”的伦理表述
OpenAI称“合作符合公司伦理准则”,并保留了与Anthropic相同的“红线”(拒绝用于大规模监控或完全自主武器)。但实际上,其通过技术性处理规避了限制:
将模型限定在云端运行(而非部署在自主武器终端);
配备持有安全许可的研究人员追踪技术使用情况。
这种“表面合规”既满足了军方的“无限制合法用途”需求,又避免了与Anthropic的“直接对抗”,同时获得了进入国防部机密网络的独家通道(可观的合同收益+AI军备竞赛的先发优势)。
2. 商业利益的必然选择
OpenAI作为盈利性企业,需要与政府合作以获得海量数据、政策支持和高额合同。国防部机密网络是“AI军事化”的关键场景,进入该网络意味着OpenAI的模型能在“真实战场环境”中训练,提升其军事AI能力(如情报分析、作战规划)。
此外,OpenAI的“接盘”也是对Anthropic“安全理想”的否定——在商业利益面前,“伦理妥协”成为必然选择。
四、事件的影响:AI伦理与国家安全的边界重构
这一事件将对AI行业、国家安全格局产生深远影响。
1. 对Anthropic的影响:商业损失与IPO蒙尘
直接经济损失:失去2亿美元政府合同,且“供应链风险”标签导致企业客户(尤其是与美军有业务往来的承包商)流失;
IPO前景不明:Anthropic正在筹备上市(估值3800亿美元),“供应链风险”标签可能影响投资者信心,其“安全即品牌”的护城河受到冲击。
2. 对AI行业的影响:“安全理想”与“现实政治”的分裂
科技巨头的分化:OpenAI、谷歌、xAI等公司选择“妥协”,而Anthropic坚持“红线”,导致AI行业出现“分裂”——一部分企业选择“安全优先”,另一部分选择“国家利益优先”;
员工的担忧:OpenAI部分员工对与军方合作表达担忧,呼吁管理层“在伦理与国家安全之间保持谨慎”,反映出科技企业内部对“AI军事化”的分歧。
3. 对国家安全的启示:AI军备竞赛升级
军事AI成为战略重点:美军将AI视为“军事优势的核心”,通过与OpenAI等公司合作,加速AI在情报分析、作战规划、自主武器等领域的应用;
AI伦理的“工具化”:政府的“国家安全”需求正在消解AI伦理的“独立性”,科技企业的“伦理准则”成为“符合国家利益的工具”,AI伦理的边界正在重构。
结论:AI时代的“安全与国家”命题
白宫封杀Anthropic及OpenAI“接盘”事件,本质是AI技术发展与传统国家安全观念的冲突。Anthropic的“安全理想”代表了科技企业对“AI向善”的追求,但在“国家安全优先”的现实政治面前,这种理想显得脆弱;OpenAI的“接盘”则是商业利益驱动下的“伦理妥协”,反映出科技企业在“安全、利益、国家”之间的艰难权衡。
这一事件提醒我们,AI技术的发展必须与伦理规范、法律框架同步,否则可能引发“AI失控”的风险。同时,政府与企业需要建立“对话机制”,在“国家安全”与“AI伦理”之间寻找平衡,避免“一刀切”的封杀或“无底线”的妥协。只有这样,才能让AI真正成为“推动人类进步的力量”。