作者:Barrons巴伦
Anthropic与五角大楼的公开冲突已持续数周,起因是该AI公司首席执行官达里奥·阿莫迪(Dario Amodei)反对政府要求其放松安全护栏,并允许政府将该公司的技术应用于所有场景,包括公共监控。
政府将这场争端描述为合同分歧,只是条款与交付内容的小摩擦。但这实际上是一块烟幕,掩盖着一场范围更广的意识形态之争,且可能外溢影响国家安全。特朗普政府周四将这家公司列为“供应链风险”,就在一周前它下令联邦机构停止使用其产品之后。然而,Anthropic早已深度嵌入五角大楼,其AI模型Claude正被用于锁定打击目标、协助排序伊朗打击优先级。
被称为“白宫AI与加密货币沙皇”的戴维・萨克斯(David Sacks)指责Anthropic在Claude的安全护栏中植入了“觉醒意识形态”。Claude的内部架构强调多层安全机制与受限输出,在硅谷这被普遍视为负责任的规模化扩展,但在白宫眼中,却被定性为意识形态过滤和内嵌政治偏见。
是否认同这种定性其实无关紧要。关键在于,政府将AI的安全护栏视为不仅仅是工程层面的选择,更是政治层面的选择。随着AI越来越深度地参与军事决策,这些政治争议也就变成了国家安全层面的争议。
摆在台面上的是一份价值2亿美元的合同。以五角大楼的标准来看,这不过是零头。对Anthropic而言,相比其今年预计达到140亿美元的营收规模,这笔钱也不算多。
如果失去这份政府合同,Anthropic并不担心其营收总额会受到冲击。它更可能担心的是,在IPO之前释放出不利信号的风险——据报道,其IPO可能最快今年就会到来。围绕“安全与杀戮”与五角大楼公开争执,并不是承销商乐见的那种新闻标题,尤其是对一家以“安全优先”作为自身差异化定位的公司而言。
五角大楼对Anthropic还握有另一项胁迫性权力:对机密系统的访问权限,以及未来对联邦政府合同的需求。它正运用这一筹码,惩罚Anthropic在若干政治议题上未与政府保持一致。
Anthropic支持主张制定AI安全法律的政治候选人,并支持州层面的AI安全措施,而政府对此持反对态度。这与政府的去监管立场、以及其偏好集中制定规则和联邦优先适用(对州法予以排除)的取向并不契合。政府已明确表示,它希望避免各州规则碎片化,并防止过早对本土AI领军企业施加限制。
Anthropic支持州级安全护栏,表明它更适应一个监管更完善的生态,这可能让有能力承担更高合规成本的头部企业受益。萨克斯将此称为一种“精密的监管俘获策略”。
Anthropic还聘请了前总统乔·拜登的AI顾问本·布坎南担任咨询顾问,并接受了包括里德·霍夫曼、达斯汀·莫斯科维茨和里德·哈斯廷斯在内的民主党超级金主提供的大额资金支持。
单看这些事实本身,意义不大。但把它们放在一起,在当下的政治环境中,分量极重。在特朗普核心圈子部分人眼中,Anthropic已被贴上对立政治联盟盟友的标签。
但问题在于:五角大楼需要在机密网络上使用前沿AI模型,而在今天,Anthropic是唯一一家能够大规模部署为高保障机密环境量身定制模型的公司。因此,政府陷入两难:惩罚Anthropic可能会拖慢AI融入国家防务的进程;但若对其予以迁就,又会显得政治上软弱。
值得注意的是,在五角大楼牵头处理此事的并非采购官员或军方合同专业人员,而是国防部长皮特・赫格塞斯。政治办公室取代传统采购人士,传递出明确信号:这场争端无关Anthropic的履约能力,而是一场施压行动,意在迫使一家“不站队”的公司“俯首称臣”。这理应让美国资本家感到不安。
如果AI变得像电力或喷气推进那样,成为美国经济与国家安全不可或缺的基础要素,政府就必须决定:要把领先的AI公司视为保持一定距离的承包商,还是视为某种准国家级的“冠军企业”。历史上,当某项技术在国防领域起决定性作用时——比如曼哈顿计划,或冷战初期的航空航天——政府与产业往往会迅速而紧密地结盟。
如今,所谓的“对齐”已经沿着党派界线出现了裂痕。五角大楼与Anthropic之间的冲突只是这一裂痕的一个症状。除非华盛顿先厘清:AI公司究竟是战略伙伴,还是政治对手,否则这场小交锋绝不会是最后一次,而只是第一回合。
作者|约翰·G·费拉里
















