致命AI武器:自主猎杀、虚空斩首、认知操控

360影视 2025-01-12 16:00 3

摘要:无人机蜂群突破电磁藩篱,自主猎杀;人脸识别洞悉战场迷雾,直指将帅;虚假信息操控舆论走向,颠覆认知。AI正以其无所不在的渗透力,将现代战争推向一个前所未见的境地。

俄乌战场硝烟未散,AI(人工智能)武器搅动战局。

无人机蜂群突破电磁藩篱,自主猎杀;人脸识别洞悉战场迷雾,直指将帅;虚假信息操控舆论走向,颠覆认知。AI正以其无所不在的渗透力,将现代战争推向一个前所未见的境地。

据《参考消息》2024年12月转引外媒报道,乌克兰正利用无人机在俄乌冲突期间拍摄的数百万小时的战场视频,训练人工智能(AI)模型学习战场决策。真实战场,已然成为AI的“练兵场”。

AI不仅赋能杀戮机器,更在拷问人类伦理底线。

“扳机”该由谁来扣下?谁来为AI造成的伤亡负责?AI机器会带来更多杀戮吗?正如奥地利外长沙伦贝格在2024年自主武器国际会议上发出的警告,“人类正面临奥本海默时刻。”

“机器人战争的时代正快速向我们走来。”军事专家傅前哨表示,无论是空中、地面还是海上,都面临着将“生杀大权”交给机器人的伦理困境。

当地时间2025年1月3日,乌克兰苏梅州,一所受损住宅的院子里,发现一架俄制无人机残骸。图/视觉中国

AI武器搅动俄乌战场

“如果你想训练一个AI,就给它200万小时的视频,它就会变成超自然的东西。”奥列克桑德·德米特里耶夫(Oleksandr Dmitriev)把这些海量视频称为“AI的养料”。

德米特里耶夫是乌克兰非营利性数字系统公司OCHI的创始人。据《参考消息》转引报道,自2022年以来,德米特里耶夫的系统已经从无人机上收集了超过200万小时的战场视频。而这将为人工智能提供重要的学习数据。

德米特里耶夫表示,这些视频可以用来优化作战策略、识别目标和评估武器效能。

“人工智能程序可以研究武器最有效的轨迹和角度。”他说。

人工智能的大量运用,正在成为俄乌冲突区别于历史上其他战争的最新特征。

过去,电子对抗系统是无人机的一大“天敌”。

乌克兰政府Brave1平台的AI业务负责人马克斯·马卡尔丘克(Max Makarchuk)指出,受电子战系统影响的FPV无人机平均命中率降至30%-50%,而新手操作员的命中率甚至可能低至10%。

而AI,特别是计算机视觉技术的发展,为无人机突破电子战干扰提供了可能性。比如,通过NORDA Dynamics公司开发的计算机视觉瞄准软件,无人机可自主感知环境、增强目标识别与跟踪的能力。在操作员初步标定目标后,无人机即可自主完成后续行动。据报道,截至2024年10月31日,该公司已向无人机制造商交付超过10000套该软件。

与此同时,AI赋能的无人机集群作战正成为军事领域的重要发展趋势。乌克兰科技公司Swarmer正致力于开发将大量无人机联网协同作战的软件。名为Styx的这套软件可实现集群内部快速同步决策。

该公司首席执行官谢尔希·库普里连科(Serhiy Kupriienko)表示,“飞行员难以操控超过五架无人机,而AI则能轻松管理数百架。”通过Styx,每架无人机都能自主规划行动,并预测其他无人机的行为,实现高度自主的协同作战。

人脸识别技术在俄乌冲突中也尤为引人注目。

美国面部识别公司Clearview AI向乌克兰开放了其包含100亿张照片的数据库,包括从俄罗斯社交平台VKontakte收集的20亿张照片。通过人脸识别技术,乌克兰查明俄战俘和阵亡士兵身份,并将其信息公之于众。此外,通过比对战场图像、公开信息以及其他情报来源,这项技术还可用于识别俄罗斯高级将领,为军事“斩首”行动提供支持。

在俄乌真实战场之外,AI还被用于制造“信息烟雾弹”,扰乱视听。

2022年3月,一段深度伪造的乌克兰总统“泽连斯基”宣布投降的视频在社交媒体平台迅速传播。视频中,“泽连斯基”号召士兵放下武器,停止抵抗。无独有偶,2023年6月,有黑客入侵俄罗斯广播和电视系统,播放了一段由AI生成的“普京”讲话,谎称乌克兰已入侵俄罗斯三个边境地区,并宣布进行全面动员,一度引发民众恐慌。

当地时间2022年8月31日,在首尔光化门广场的一场活动中,一个小女孩和她的母亲与幽灵机器人公司制作的“机器狗”互动。图/视觉中国

“奥本海默时刻”

2024年5月,一场以“人类正处于十字路口”为主题的自主武器国际会议在奥地利维也纳召开。奥地利外长沙伦贝格在会议上发出警告称,“人类正面临奥本海默时刻。”

这一警示并非空穴来风,AI正以前所未有的速度和规模改变着战争形态。

“蜂群无人机在空中盘旋,机器狗、机器狼等无人装备在地面行动,水面和水下则有无人艇和无人潜航器。”军事专家傅前哨向南方周末勾勒出了一幅未来战场的速写。随着AI军事化的深入发展,战争机器的形态日益多样化已成趋势。

此外,AI驱动的信息战还将网络空间开辟为新战场。例如,自动化地生成和传播虚假信息,制造舆论混乱,扰乱敌方决策。如果说,信息战是“给人们看什么”,而认知战则是“让人们怎么想”。

对外经济贸易大学国际关系学院讲师李宏洲博士告诉南方周末,认知战本身并不直接导致物理伤亡,但它通过有选择性地呈现或屏蔽信息,从而潜移默化地影响受众的认知框架和决策判断,进而塑造、扭曲甚至操控受众的思想和观念。

他以短视频举例说,用户在使用这类传媒软件时,往往难以察觉其内容可能受到大型企业乃至国家力量的干预。这种干预通常通过算法规制进行,其影响之深远,或能影响公共事件的舆论走向、左右国家选举。通过散布虚假信息、煽动仇恨和对立情绪,认知战还可以加剧国家间的误解和冲突,甚至为军事对抗制造借口。

AI技术催生出诸多新的作战领域、空间、场景和模式。但是,“我们还需清醒地认识到,AI还并没有驱使战争超出基本的指挥控制原理。”上海交通大学自动化系副研究员宋磊说。

“当前战争形态呈现出人机结合的趋势,但战争的本质仍然是人与人、国家与国家之间的对抗。”李宏洲表示,战局的演变也并非仅由军事因素决定。

随着越来越多的AI武器备进入战场,未来军队的作战方式、武器装备的研发及军队的编制体制也将带来一系列变革。

“在未来,传统的战术训练,如瞄准、射击、战术编组等基础技能的训练比重将有所降低,取而代之的是侧重于无人装备操作的训练,如目标搜索、精确打击等。”傅前哨说,“空中飞行员的作战重心也将随之转移,他们不仅要操控飞机,更要担负起管理和控制无人机编队的责任。”

宋磊认为,随着AI技术的迭代发展,战争中人类的角色将呈阶梯式演进。各级指战人员将在人机交互中逐步从筹划、决策、执行层面解放。届时,对抗的关键将不再是杀伤人员或摧毁装备,更重要的是摧毁敌方决策意图和指挥控制体系。

“这如同AI对工业、医疗、教育等领域的深刻变革,是对军事的系统性重塑,旨在最大限度提高部队可持续作战能力,充分挖掘战争潜力。”宋磊说。

当地时间2024年12月28日,乌克兰尼古拉耶夫,消防员正在扑灭由无人机袭击引发的火灾。图/视觉中国

AI武器拥有智能,却无道德

在AI自主武器的发展过程中,“扳机”究竟该由谁来扣下,成了最核心,也最具争议的伦理难题。

在复杂战场环境下,智能化武器的敌我识别能力仍然面临严峻挑战,甚至会误杀平民或己方军事人员。傅前哨表示,“在面临压力、危险和欺骗时,即使是人类也无法迅速把握事物的全貌并做出正确的决策。”

傅前哨提出了两个值得思考的场景:

战场上,一架AI无人机发现了一辆敌方坦克,在即将发起攻击时,无人机发现坦克边停靠着一辆载有大量乘客的大巴车。如果是一名空军飞行员执行任务,他通常会选择等待,或者采取其他措施,最大程度地避免平民伤亡。而AI无人机在确认敌方目标后,是立即发动攻击,还是像人类一样考虑是否会伤及无辜?

再比如,AI无人机在执行任务时,探测到预定打击目标毗邻一座核电站,它是否会机械地执行攻击指令?由此可能造成的灾难性后果,其严重程度已超越了普通故意杀人罪的范畴,甚至可能触及反人类罪。

“人工智能武器只拥有智能,却没有道德。”傅前哨表示,如果允许机器人代替人类进行决策,将带来严重的伦理问题。

傅前哨同时指出,部分国家的军方或倾向于降低AI自主武器在作战决策中的伦理考量,因为过多的伦理评估可能导致无法及时采取行动。过度的犹豫和顾虑无疑会贻误战机,甚至可能导致整个战役或战术行动的失败。

目前看来,“最终发动攻击、扣动扳机、作出决策的仍然应该是人。”傅前哨认为,需要确保人在决策回路中,由人类“扣动扳机”,避免智能化的作战平台完全自主地采取军事行动。

李宏洲认为,使用AI武器带来的伤亡责任需要厘清——究竟是人为指令、系统失误还是意外事故所致?而AI的应用使得责任界定变得模糊。

对于这种模糊性,存在两种截然不同的解读:一种观点认为,这并非蓄意欺诈,反而可能有助于降低战争烈度,因为各方都可能将伤亡归咎于机器故障而非人为指令,从而避免冲突升级。

而另一种观点则认为,这种模糊性实际上会降低战争的门槛,使战争更容易爆发。一旦战端开启,各方更容易将对平民的伤亡解释为“误炸”或“机器失误”,从而逃避应有的责任。

“AI改变的是未来作战样式,并非战争本质。”军事专家刘扬和齐文华曾在论文中表示,无论AI如何发展,战争的决策者始终是人类,智能武器只是执行命令的工具。

正如奥地利外交部长沙伦贝格所说:“谁生谁死的决定权,必须掌握在人类而不是机器手中。然而,事实是科技正在飞速发展,政策却落后了。”

AI军备竞赛已经显现

真实的战争是AI武器的最佳养料。为了追求AI武器“更高效”,获取更多训练数据,可能需要不断升级战争的烈度,这无疑会加剧现实冲突。与此同时,AI自主武器系统会否降低战争门槛,自主杀伤性武器的扩散是否会被恐怖分子利用,成为新的袭击手段,也同样令人忧虑。

傅前哨表示,国际社会各方有必要坐下来共同制定相关的约束机制,以规范AI在军事领域的应用,建立一种类似于核武器领域的“恐怖平衡”,以避免灾难性后果。

“军事化AI的发展应围绕算法训练过程的透明、无人武器监管两个核心要素,建立有广泛参与的国际制度。”李宏洲表示,AI的战场应用必须遵循战争伦理,可参照国际社会对化学武器、生物武器等的限制,严格限制无差别攻击平民的武器,做到发展与规范并重。

此外,李宏洲还指出“要重视AI训练中的对齐问题”。AI作为一种工具,应始终受人类主导和伦理框架约束。必须将“不得伤害平民”“不得在谈判期间发动袭击”等伦理准则“烙印”到AI系统中,避免将其训练成不惜一切代价追求“战斗胜利”的杀戮机器。

“未来,大国间的非核战争中,无人技术和自主武器系统的优劣将决定战争的胜负。”李宏洲表示,AI军备竞赛的苗头已经显现,AI自主武器或将各国推向一场新的军备竞赛。

李宏洲解释,一战直至二战时期,电气化对战争的影响日益凸显,部分武器开始采用电容触发,电力不仅支撑了战场上的雷达、通信以及照明,也是各国支撑工业生产最重要的基础设施。而AI作为一种赋能技术,其应用范围远超电力,几乎渗透到社会各个领域。因而,AI领域的军备竞赛将是全方位的,涵盖军事、经济、科技等多个层面,其影响之深远将远超以往。

AI军事化的发展势头难以遏制。如何在全球范围内有效规制AI的军事应用,避免其失控并维护国际安全,是当前亟待解决的问题。

让我们将思绪再飞往更远的未来。当强人工智能时代到来时,战争甚至超出人类范畴,乃至出现在人类与智慧生命之间。AI领域的先驱、诺贝尔物理学奖得主杰弗里·辛顿曾提出,机器有可能“接管”人类。

这种战争将会以何种形态呈现,目前尚不确定。李宏洲表示,一种可能的场景是,一旦机器突然获得自我意识并接入网络系统,便可能轻易击败人类。而宋磊认为,“这种可能性也许近在咫尺,也许遥遥无期,但都值得我们认真对待。”

为了防止那样的悲剧出现,李宏洲认为,在AI训练过程中可以借鉴阿西莫夫科幻小说《我,机器人》中提出的“机器人三大定律”,尤其是将“机器人不得伤害人类”这一基本准则“烙印”至AI系统,或可有效规制AI。

AI武器是和平的神剑,还是战争的魔杖,答案尚未揭晓,未来的战争图景笼罩着一层神秘的面纱。

南方周末特约撰稿 李江流

责编 毛淑杰

来源:南方周末

相关推荐