headphones
Anthropic身份危机的七十二小时
深潮TechFlow
深潮TechFlow
02-28 20:20
Follow
Focus
身份危机的终点,往往是身份的消失。
Helpful
Unhelpful
Play

作者:深潮TechFlow

2 月 24 日,星期二。华盛顿,五角大楼。

Anthropic CEO Dario Amodei 坐在国防部长 Pete Hegseth 对面。据 NPR 和 CNN 多家媒体援引知情人士透露,会面的气氛“礼貌”,但内容一点都不客气。

Hegseth 给了他一个最后通牒:周五下午 5:01 之前,放开 Claude 的军事使用限制,允许五角大楼将其用于“所有合法用途”,包括自主武器瞄准和国内大规模监控。

否则取消 2 亿美元合同。启动《国防生产法》,强制征用。将 Anthropic 列为“供应链风险”,这等同于把它归入俄罗斯和中国敌对实体的黑名单。

同一天,Anthropic 发布了第三版“负责任扩展政策”(RSP 3.0),悄悄删掉了公司成立以来最核心的一条承诺:如果无法保证安全措施到位,就不训练更强大的模型。

也是同一天,Elon Musk 在 X 上发帖说:“Anthropic 大规模窃取训练数据,这是事实。”同时,X 的社区笔记补充了 Anthropic 因使用盗版书籍训练 Claude 而支付 15 亿美元和解金的报道。

七十二小时内,这家自称有“灵魂”的 AI 公司,同时扮演了三个角色:安全殉道者、知识产权窃贼、五角大楼的叛徒。

哪个才是真的?

也许都是。

五角大楼的“要么服从,要么滚”

故事的第一层很简单。

Anthropic 是第一家获得美国国防部机密级访问权限的 AI 公司。去年夏天拿到的合同,上限 2 亿美元。OpenAI、Google、xAI 随后也各拿了同等规模的合同。

据 Al Jazeera 报道,Claude 曾被用于今年 1 月的一次美军行动。报道称该行动涉及委内瑞拉总统马杜罗的绑架。

但 Anthropic 划了两条红线:不支持全自主武器瞄准,不支持对美国公民的大规模监控。Anthropic 认为,人工智能的可靠性不足以操控武器,而且目前还没有任何法律法规规范人工智能在大规模监控中的应用。

五角大楼不买账。

白宫 AI 顾问 David Sacks 去年 10 月在 X 上公开指控 Anthropic“以恐惧为武器,搞监管俘获”。

竞争对手已经跪了。OpenAI、Google、xAI 都同意让军方将其 AI 用于“所有合法场景”。Musk 的 Grok 本周刚获批进入机密系统。

Anthropic 是最后一个站着的。

截至发稿,Anthropic 在最新发表的声明中表示,他们并没有打算让步。但周五 5:01 的大限,已经近在眼前。

一位匿名的前司法部与国防部联络员对 CNN 表示了困惑:“你怎么能同时宣布一家公司是‘供应链风险’,又强迫这家公司为你的军队工作?”

好问题,但这不在五角大楼考虑范围之内。他们在乎的是,如果 Anthropic 不妥协,将采取强制手段,或者,成为华盛顿弃儿。

“蒸馏攻击”:一场打脸式的控诉

2 月 23 日,Anthropic 发了一篇措辞激烈的博客,指控三家中国 AI 公司对 Claude 进行了“工业级蒸馏攻击”。

被告是 DeepSeek、Moonshot AI、MiniMax。

Anthropic 指控它们通过 2.4 万个伪造账户,对 Claude 发起超过 1600 万次交互,定向提取 Claude 在智能体推理、工具调用和编程方面的核心能力。

Anthropic 把这件事定性为国家安全威胁,声称蒸馏后的模型“不太可能保留安全护栏”,可能被威权政府用于网络攻击、虚假信息和大规模监控。

叙事很完美,时机也很完美。

恰好在 特朗普政府刚刚放宽对华芯片出口管制之后,恰好在 Anthropic 需要为自己的芯片出口管制游说立场寻找弹药的时候。

但是 Musk 开了一枪:“Anthropic 大规模窃取训练数据,还为此支付了数十亿美元和解金。这是事实。”

AI 基础设施公司 IO.Net 联合创始人 Tory Green 表示:“你们用全网的数据训练自己的模型,然后别人用你们的公共 API 学习你们,就叫'蒸馏攻击'了?”

Anthropic 把蒸馏叫“攻击”,但这件事在 AI 行业是家常便饭。OpenAI 用它压缩 GPT-4,Google 用它优化 Gemini,连 Anthropic 自己也在做。唯一的区别是,这次被蒸的是它自己。

据新加坡南洋理工大学 AI 教授 Erik Cambria 对 CNBC 表示:“合法使用和恶意利用之间的边界往往是模糊的。”

更讽刺的是,Anthropic 刚为使用盗版书籍训练 Claude 支付了 15 亿美元和解金。它用全网的数据训练模型,然后指控别人用它的公开 API 学习它。这不是双标,这是三标。

Anthropic 本想扮演受害者,结果被扒成了被告。

安全承诺的拆除:RSP 3.0

就在与五角大楼对峙、与硅谷互撕的同一天,Anthropic 发布了第三版负责任扩展政策。

Anthropic 首席科学家 Jared Kaplan 在接受媒体采访时表示:“我们觉得停止训练 AI 模型对任何人都没有帮助。在 AI 快速发展的背景下,单方面做出承诺……而竞争对手在全速推进,这没有意义。”

换句话说,别人不讲武德,我们也不装了。

RSP 1.0 和 2.0 的核心是一条硬性承诺,如果模型的能力超过了安全措施的覆盖范围,就暂停训练。这条承诺让 Anthropic 在 AI 安全圈获得了独一无二的声誉。

但 3.0 删了。

取而代之的是一个更“灵活”的框架,即把 Anthropic 自己能做的安全措施和需要全行业协作的安全建议分成两条轨道。每 3-6 个月发一份风险报告。请外部专家审阅。

听起来很负责?

来自非营利组织 METR 的独立审查员 Chris Painter 在看完政策早期草案后对表示:“这说明 Anthropic 认为需要进入'分诊模式',因为评估和缓解风险的方法跟不上能力增长的速度。这更多地证明了社会对 AI 潜在灾难性风险没有做好准备。”

根据 TIME 报道,Anthropic 花了将近一年时间内部讨论这次改写,CEO Amodei 和董事会全票通过。官方说法是,原来的政策设计初衷是推动行业共识,结果行业根本没跟上。特朗普政府对人工智能发展采取了放任自流的态度,甚至试图废除各州的相关法规。联邦层面的人工智能法律遥遥无期。尽管在 2023 年建立全球治理框架似乎还有可能,但三年过去了,这扇门显然已经关闭。

一位长期跟踪 AI 治理的匿名研究员说得更直接:“RSP 是 Anthropic 最值钱的品牌资产。删掉暂停训练承诺,就像一家有机食品公司悄悄把'有机'两个字从包装上撕下来,然后告诉你他们现在的检测更透明了。”

3800 亿估值下的身份撕裂

2 月初,Anthropic 以 3800 亿美元估值完成 300 亿美元融资,亚马逊是锚定投资者。自成立以来,就实现了 140 亿美元的年化收入。过去三年,这一数字每年都增长超过 10 倍。

同时,五角大楼威胁将其列入黑名单。Musk 公开指控其数据盗窃。自己的核心安全承诺被删除。Anthropic 的人工智能安全负责人 Mrinank Sharma 辞职后在 X 上写道:“世界正处于危险之中。”

矛盾?

或许矛盾是 Anthropic 的基因。

这家公司由前 OpenAI 高管创立,因为他们担心 OpenAI 在安全问题上走得太快。然后他们自己建了一家公司,以更快的速度构建更强大的模型,同时告诉全世界这些模型有多危险。

商业模式可以概括为一句话,我们比任何人都更害怕 AI,所以你应该出钱让我们来造 AI。

这个叙事在 2023-2024 年完美运转。AI 安全是华盛顿的热词,Anthropic 是最受欢迎的游说者。

2026 年,风向变了。

“woke AI”成了攻击标签,州级 AI 监管法案被白宫阻击,Anthropic 支持的加州 SB 53 虽然签署成法,但联邦层面一片荒芜。

Anthropic 的安全牌,正在从“差异化优势”滑向“政治负资产”。

Anthropic 在做一个复杂的平衡术,它需要足够“安全”来维持品牌,又需要足够“灵活”来不被市场和政府抛弃。问题是,两头的容忍空间都在缩小。

安全叙事,还值多少钱?

把三件事叠在一起看,画面就清楚了。

指控中国公司蒸馏 Claude,是为了强化芯片出口管制的游说叙事。为了在军备竞赛中不掉队,删除了安全暂停承诺。拒绝五角大楼的自主武器要求,是为了保住最后一层道德外衣。

每一步都有逻辑,但每一步之间又互相矛盾。

你不能一边说中国公司“蒸馏”你的模型会危害国家安全,一边删掉防止你自己的模型失控的承诺。如果模型真的那么危险,你应该更谨慎,而不是更激进。

除非你是 Anthropic。

在 AI 行业,身份不是由你的声明定义的,是由你的资产负债表定义的。Anthropic 的“安全”叙事,本质上是一种品牌溢价。

在 AI 军备竞赛的早期,这种溢价值钱。投资者愿意为“负责任的 AI”支付更高的估值,政府愿意为“可信赖的 AI”开绿灯,客户愿意为“更安全的 AI”付费。

但 2026 年,这个溢价正在蒸发。

Anthropic 现在面临的,不是“要不要妥协”的选择题,而是“先向谁妥协”的排序题。向五角大楼妥协,品牌受损。向竞争对手妥协,安全承诺作废。向投资者妥协,两头都得让。

周五下午 5:01,Anthropic 会交出它的答案。

但无论答案是什么,有一件事已经确定:那个曾经靠“我们和 OpenAI 不一样”立足的 Anthropic,正在变得和所有人一样。

身份危机的终点,往往是身份的消失。

Open App for Full Article
DisclaimerThis website, hyperlinks, related apps, forums, blogs, media accounts, and other platforms' content are all sourced from third-party platforms and users. CoinWorldNet makes no guarantees about the website or its content. All blockchain data and other materials are for educational and research purposes only and do not constitute investment, legal, or other advice. Users of the CoinWorldNet and third-party platforms are solely responsible for the content they post, which is unrelated to CoinWorldNet. CoinWorldNet is not liable for any loss arising from the use of this website's information. You should use the data and content cautiously and bear all associated risks. It is strongly recommended that you independently research, review, analyze, and verify the content.
Comments(0)
Popular
Latest

No Comments

edit
comment
collection
like
share