
Image generated using ChatGPT
观点:战争中的AI——科技行业对战场的低调转变
关于自主武器、技术安全政策以及军事领域人工智能伦理的辩论一直在进行,但近日出现了重大进展。OpenAI、DeepSeek以及Spotify的创始人甚至宣布与政府达成新的合作协议,共同开发防御技术和战略人工智能
近几天来,在战争中使用人工智能的紧张局势进一步加剧。本月,几家科技公司宣布与政府达成新的战略伙伴关系,开发防御项目。而且,就像人工智能领域的许多情况一样,最近几个月里,军事和武器开发对人工智能的态度发生了显著转变。
就在几天前,OpenAI和美国政府宣布达成了一项价值2亿美元的协议,以开发AI驱动的防御工具。具体细节仍然稀缺,官员们强调“行政操作”为主要应用场景。
与此同时,瑞典企业家和Spotify创始人Daniel Ek领导了对德国公司Helsing的6亿欧元的投资轮次。Helsing原本专注于软件技术,现在正转向无人机、潜艇和飞机的开发。
路透社最近透露,DeepSeek正在协助中国的军事和情报行动。一位美国高级官员表示,这家人工智能初创公司一直在协助解决中美贸易战中的挑战,而其开源模式正在帮助中国政府进行监控行动。
科技巨头以我们不习惯看到的方式与政府合作 —— 至少不是那么公开地 ——它们参与了传统上并不是它们角色的活动,比如高级科技行政人员加入美国陆军预备队。
美军的“201分队:执行创新团队”正在努力招募高级科技行业的高管,让他们在军队预备役中兼职担任高级顾问,以帮助指导针对复杂问题的快速和可扩展的科技解决方案。⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 2025年6月24日
发生了什么事?
言辞的转变
科技公司从“我们绝不会将AI用于军事目的”转变为“也许我们会悄悄从我们的政策中删除这个条款”,再到“好消息,我们现在正在为政府制造AI驱动的武器!”
至少,这就是敏锐的观察者所看到的情况。
就在不久前,AI巨头似乎很自豪地宣布他们永远不会支持军事应用,但现在情况有所变化。以谷歌为例。
2017年,美国国防部启动了“Maven项目”,即算法战争跨功能团队,该项目旨在将AI整合到军事行动中。谷歌最初参与其中,但因为员工对伦理问题的担忧而发起的内部抗议,促使该公司暂时退出。
去年,军事活动的推进再次升温,近200名Google DeepMind员工敦促公司放弃军事合同。
“任何与军事和武器制造的关联都会影响我们作为道德和负责任的AI领导者的地位,这与我们的使命宣言和公开的AI原则背道而驰,”这些忧虑的员工写道。
这一次,Google的回应是等待,并悄悄更新了其AI伦理指南,删除了他们表示永远不会开发可能造成伤害的AI技术的部分。Google的AI主管Demis Hassabis解释说,他们只是在适应世界的变化。
虽然Google的案例说明了AI与军事应用之间不断发展的关系,但这只是更广泛的行业转向服务于防御目标的一个例子。
AI正在重塑军事和防御部门
美国政府启动了“Maven项目”,或者有些人可能称之为“美国政府意识到大型语言模型在战争中可能非常有用的时候”,这揭示了美国政府对AI感兴趣的原因之一。
AI系统能处理大量数据、识别战场上的物体、分析图像,这在防务领域特别有吸引力。
增强的分析能力,超越人类的能力
自2022年以来,乌克兰和俄罗斯都开始将AI系统融入其军事行动中。
乌克兰政府已与科技公司合作,部署了多种策略,以充分利用大型语言模型。最近,他们处理了200万小时的战场影像——相当于228年的视频——以训练军事进程中的AI模型。他们需要多少人去分析这么多的数据呢?
“这是给AI的食物:如果你想训练一个AI,你给它200万小时(的视频),它将变得超自然,”非营利性数字系统OCHI的创始人Oleksandr Dmitriev解释道。这些影片可优化武器性能并帮助改进战斗策略。
另一个AI系统,复仇者,是由乌克兰国防部创新中心开发的AI驱动的智能平台,它处理来自无人机的实时视频,并每周识别多达12,000个敌方单位。
无人机:战场上的热门商品
战场上的无人机——经常被称为“杀戮机器”——由于其自主性、精确性和低成本,目前是现代战争中最有价值的技术之一。这些机器人让交战的国家可以进行高影响力的攻击,而无需冒险让人类飞行员参与,且费用只是传统开支的一小部分。
到今年5月,俄罗斯已在乌克兰部署了超过3,000架Veter自杀式无人机。这些系统能够自主识别目标并执行攻击。
就在几天前,乌克兰士兵部署了Gogol-M无人机,这是一种“母舰”无人机,可以飞行高达300公里,携带其他无人机,通过低空飞行来躲避雷达,并扫描其下方的地面以侦测并攻击敌军。
根据卫报的报道,使用这种强大无人机的每次攻击成本约为10,000美元,而使用稍旧技术的导弹系统的成本则介于300万到500万美元之间。
全新的初创公司Theseus迅速筹集了430万美元。去年,该公司的年轻创始人在社交媒体平台X上发布了一篇帖子,称他们以不到500美元的价格构建了一款无需GPS信号就能飞行的无人机。
我们设计并使用3D打印技术制造了一架价值不到500美元的无人机,它能通过摄像头和谷歌地图计算GPS坐标,而无需信号
在24小时内 pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 2024年2月18日
尽管无人机技术的精确度还没有达到一些开发者的期望——特别是在受天气条件影响,降低其”可见度”的时候——但它在该领域已经表现出了巨大的潜力。
难以达成的全球共识
不仅仅是处于战争状态的国家或世界主要大国在开发新的AI驱动的防御技术。许多国家已经多年来将AI整合到网络安全努力和自主武器开发中。这并不仅仅是2025年的现象。
自2014年以来,联合国一直在试图与多个国家达成监管框架的协议,但一直未能成功。
最近有超过90个国家在纽约的联合国大会上聚集,讨论AI控制的自主武器及其法规的未来。 他们并未达成共识,大会只通过了2023年的一个非绑定决议,警告需要解决致命自动武器系统(LAWS)的问题。
目前的大辩论是是否要实施全球框架。许多国家同意需要新的全球指导原则,以规范私人AI公司和各国。而其他一些国家,例如美国、中国、俄罗斯和印度,更愿意保持现有的国际法,并根据他们的本地需求或利益独立制定新法律。我们刚刚见证了即使在州级层面创建新的AI法规的过程是多么混乱,就像在加利福尼亚州一样。
科技公司越来越多地介入其中
像阻止杀人机器人的劳拉·诺兰这样的活动家担心,缺乏安全措施和法律框架来控制科技公司在开发自动武器和军用AI软件方面的进步。
“我们通常不会信任行业自我监管…并无理由认为国防或科技公司应该更值得信任,” Nolan对路透社说。
2024年,研究人员揭示中国机构已经在使用Meta的开源大型语言模型Llama用于军事目的。五角大楼与Scale AI达成协议,开发Thunderforge—一个用于现代化军事决策的AI项目。而OpenAI则与军事承包商Anduril合作—这是美国军队、英国、乌克兰和澳大利亚的防卫盟友。
欧洲的防御初创公司也有所增长,它们不仅在开发新技术和项目方面取得进展,还在吸引顶级人才方面取得成果。
复杂的发展
与科技公司参与国家防御战略紧密相关的另一个因素是民族主义。越来越多的软件开发人员和AI专家选择参与与他们的理想和文化根源相符的项目,而不仅仅是追求更高的薪水。有些人甚至拒绝了美国提供的工作——例如Google或OpenAI,这些工作的薪酬是欧洲企业的两倍——例如选择了像Helsing这样的欧洲公司。
政治、科技、民族主义和意识形态的斗争的线索正变得越来越交织在一起——这往往使得伦理、道德和人文主义的考虑被抛诸脑后。
最近的发展明确表明,科技巨头在全球的军事和国防工作中扮演着巨大的角色。自主武器和战争相关技术的发展正以超快的速度推进,而联合国建立国际协议和规定来决定人类未来的努力则日益显得微不足道。
在没有国际协议的情况下,又有政府支持的雄心勃勃的科技公司利用AI开发世界上最强大的武器,那么,在未来的岁月里,人类又将面临何种未来呢?