摘要:具体来说,他们表示,将人工智能整合到军事决策的各个层面的广泛推动正在创造一个“滑坡”,人工智能要么被赋予发射核武器的权力,要么拥有这种权力的人类将变得如此依赖它的指导,如果它告诉他们,他们就会这样做。
人工智能开始让核威慑专家非常紧张。
具体来说,他们表示,将人工智能整合到军事决策的各个层面的广泛推动正在创造一个“滑坡”,人工智能要么被赋予发射核武器的权力,要么拥有这种权力的人类将变得如此依赖它的指导,如果它告诉他们,他们就会这样做。
他们说,最糟糕的是,当我们还不太了解人工智能是如何工作的时候,这种情况仍然在发生——正如测试表明,在军事演习中,它往往会将冲突升级到世界末日的程度,而人类本可以冷静下来。
斯坦福大学胡佛兵棋推演和危机模拟计划(Hoover Wargaming and Crisis Simulation Initiative)主任杰奎琳·施耐德(Jacquelyn Schneider)在一篇发人深省的新报道中告诉《政治》杂志(Politico):“这几乎就像人工智能理解升级,但不理解降级。”“我们真的不知道这是为什么。”
这一切都发生在特朗普政府试图将人工智能推向政府的许多方面,同时取消对这项技术的安全监管之际。
“据我们所知,在五角大楼内部,关于人工智能是否应该以及如何应该被整合到核指挥、控制和通信中,并没有长期的指导意见,”美国科学家联合会全球风险主管乔恩·沃尔夫斯塔尔告诉《政治》杂志。
目前,五角大楼坚持认为,总有一个人参与其中。
“政府支持维持人类对核武器控制的必要性,”一名高级官员简洁地告诉媒体。
不过,施耐德等专家担心的是,随着俄罗斯和中国等对手将人工智能纳入其高风险的军事指挥结构,这种承诺要么会被蚕食,要么五角大楼官员会陷入核冲突,因为有缺陷的人工智能系统告诉他们这是不可避免的。
“我听到作战指挥官说,‘嘿,我想要一个能从战争游戏中获取所有结果的人,当我处于[危机]场景时,根据人工智能的解释告诉我解决方案是什么,’”施耐德烦恼地说。
从某种意义上说,这些都是旧问题的新版本。据信,俄罗斯仍在维护冷战时期的“死亡之手”系统,该系统将对探测到的核打击进行自动报复,尽管该系统目前可能尚未启动。
当然,正如Politico所言,整个问题听起来就像是一部末世科幻电影虚构的背景故事。但事实证明,即使看完所有这些电影,我们似乎也无法避免滑入那个确切的现实。
两位核威慑专家在2019年的一篇博客文章中写道:“诚然,这样的建议会让人把它与奇爱博士的世界末日机器、战争游戏公司的《战争行动计划》(War Operation Plan Response)和终结者的天网相提并论,”他们呼吁美国开发自己的‘死亡之手’系统,“但这些科幻电影中的预言形象正在迅速成为现实。”
来源:湖辣