作者:Virtual Orbit
著名的科幻史诗电影《沙丘》里有这么一个世界观设定:由于人工智能高度发达,它反过来统治了人类星球,人类文明做出了艰苦的反抗后,终于战胜了那些人工智能,而且为了防止历史重蹈覆辙,他们限制了高科技的发展,丢弃了电脑等有计算能力的科技产品,重新用回了冷兵器。
这部电影源于1960年代创作的同名科幻小说,在那个年代,人工智能(AI)仿佛还是一件很遥远的事,但短短几十年过去了,作者Frank Herbert宏伟又充满未来感的幻想逐渐得到验证——在21世纪某月的最后一天,美国和以色列对伊朗发起武装冲突,而AI在这次战争中的登场,格外引人瞩目,它标志着现代战争的一个重大转变。
美国军方在此次行动中使用了人工智能公司Anthropic的大型语言模型(LLM)Claude。Anthropic是第一家将其模型部署到政府机构从事机密工作的人工智能公司,自2024年以来,Anthropic一直为美国政府和军方所用。
但近几个月来,Anthropic越来越担心政府可能会利用Claude等AI模型进行它所说的“大规模监控”和“完全自主武器”活动,并且,它因拒绝向美军提供其AI模型的完全访问权限,而与白宫陷入僵局。经过数月漫长的谈判后,Anthropic与美国国防部始终无法达成一致,最终,恼羞成怒的特朗普2天前在社交平台上,下令所有联邦机构立即停止使用Anthropic的技术。他表示,未来六个月内,Anthropic公司的模型将会逐步退出所有政府项目。
然而,政府合同只是许多AI公司业务中的一部分。Anthropic公司的主要收入来源是向其他企业销售AI软件,它的CEO,Dario Amodei博士在去年12月表示,Anthropic去年的月收入就达到了80亿至100亿美元,而和国防部的这份合同是2亿美元,这个价格很可能只占到他们收入的一小部分。
禁令是特朗普政府表面的做法,但实际上,据《华尔街日报》报道,美国对伊朗此次的袭击中就使用了Anthropic的一系列LLM,包括Claude、其衍生型号Claude政府版、或定制政府版,这些模型能够处理来自截获信息、卫星图像和信号情报的大量数据,从而生成摘要、威胁评估和实时态势感知。
这个操作在对伊朗的行动中并非孤立事件。《华尔街日报》同样进行报道过,五角大楼在今年1月份抓捕委内瑞拉总统时,也使用过Claude。
将LLM整合到杀伤链中,标志着现代战争范式的转变。民主、冲突与治理项目的高级研究员Steve Feldstein表示,这些商业模型具有军民两用性质。他说,“这是一种兼具情报和监视用途的工具,而且将来在致命装置和致命行动方面也可能发挥作用。”
真要AI聊天机器人去杀一个人的话,还非常不现实,但它提供的后勤支持已经成为现实。美国国防部负责研究与工程的副部长在接受采访时表示,军方最初对Claude这类工具的兴趣源于现代部署的复杂性。“在军事领域,后勤保障至关重要。”他说。
然而,争议与道德考量一直是眼前无法避免的问题。科技公司反对AI模型在战争中的使用,除了道德原因外,还有部分原因是他们认为这项技术尚未成熟,无法投入实际应用。
但尽管人们仍在辩论AI在战争中的伦理问题,以色列已将这些系统深度融入其军事体系,以色列国防军在加沙地带利用人工智能进行目标生成的做法,一直受到国际社会的密切关注。Feldstein指出,以色列是运用这类系统(称为“决策支持系统”)非常成功的国家之一。这些系统用于“大规模识别嫌疑人,以便随后进行致命打击。
随着Anthropic退出,五角大楼现在转向了对军事应用顾虑较少的竞争对手:OpenAI的ChatGPT。
周五,OpenAI首席执行官Sam Altman宣布,该公司将开始与美国国防部合作,为机密文件提供人工智能服务。“今晚,我们与国防部达成协议,将我们的模型部署到他们的机密网络中。”Altman在一份声明中说。而在不久前,他在一份给员工的备忘录中才说过:我们一直认为AI不应该用于大规模监控或自主致命武器。OpenAI的这个决定,受到了文化界多位名人的谴责。
Feldstein警告说,用一个AI替换另一个AI并不能解决算法战争固有的风险——尤其是对于妄想或偏见这两样事情。
随着全球紧张局势加剧,搜索引擎与战争武器之间的界限正变得日益模糊。最初用于编写代码和诗歌的工具,如今在国防官员看来,已成为致命武力投射的关键组成部分。我们无法预知AI在战争中的使用会在日后发展成何种程度,但我们不希望《沙丘》的故事会发生在地球上。
来源:The Jerusalem Post
编译:Virtual Orbit,币界网

















