摘要:进攻性人工智能指人为地滥用人工智能(AI)来完成信息搜集并执行恶意进攻指令的智能体,其源于早期的棋盘博弈,现已被广泛应用于国家安全部署、情报搜集与意识形态等领域。然而,其道德问题不容忽视,具体讲,技术“黑匣子”致使伦理责任模糊,非法情报搜集威胁全球公众的隐私安
引用本文:
王英明, 石超. 进攻性人工智能的道德考量与全球治理[J]. 科技导报, 2025, 43(4): 37-45 https://doi.org/10.3981/j.issn.1000-7857.2024.06.00622科技创新成为国际战略博弈的主要战场,围绕科技制高点的竞争空前激烈。进攻性AI(offensive artificial intelligence)主要指具备自主搜集、识别情报、决策并执行具有明显恶意攻击性任务的智能系统,可以被攻击者用来发动复杂且精准的网络攻击,目前已应用在目标侦察、精准打击、网络对抗、情报搜集及深度造假等多个场景,并呈现出向安全战、舆论战、信息战与认知战等领域全面扩散的趋势。然而,由于进攻性AI算法机制的不透明性、决策“黑匣子”等原因,其制定的解决方案可能会出现多场景应用的伦理道德失范,人类难以实现对AI决策过程的约束。因此,AI治理必须达成有效的国际合作与共识,明晰进攻性AI存在的场景、类型及特点,增强其在设计、决策与任务执行中的道德考量,构建其对科技伦理挑战的具象化图景,这对制定有效的AI伦理约束策略至关重要,或许可以为进攻性AI的伦理规范与道德框架优化提供理论基础。
01. 进攻性AI的演进历程与应用场景
进攻性AI的前身来源于计算机跳棋程序及其基础理论,并在实践中逐渐演变为具有进攻性的智能体。AI在兵棋推演方面显示出强大的推算能力,其基于海量数据库做出的智能决策的速度和质量远超人类。凭借出色的表现,AI被逐渐应用于军事领域的兵棋推演与战略决策。
1.1 进攻性AI的定义及其理论流变
2019年,由于网络安全与AI技术的深度关联,恶意利用AI进行网络进攻被称为进攻性网络武器(offensive cyber weapons),此可以视为进攻性AI的前身。伊斯洛尔·米尔斯基等于2022年正式提出“进攻性AI”这一概念,即“使用或滥用AI来完成恶意任务”,在进攻工作量的基础上实现进攻精度、强度和广度全面提升与最大回报。进攻性AI的理论体系随着在军事与安全领域的深入应用而逐渐完善,主要特征有2个:一是高度自主性的智能决策体,二是具有进攻能力的意识形态体。2024年,进攻性AI的使用主体逐渐由具备军事能力的集团转为数字资本主义操控的网络犯罪分子,也使新技术和新的商业模式(如黑客服务)被滥用于网络犯罪。
1.2 进攻性AI与国家安全战略
AI技术的深度发展使得其逐渐在国家安全战略领域崭露头角。20世纪80年代,美国提出“空地一体战”“非对称作战”等一系列作战概念,这些概念初步引入智能化元素,标志着AI技术被纳入军事战略考量之中。进攻性AI已被应用于国家层面的战争发起与安全策略部署之中,用于执行各种带有战略意图的演习、军备及安全决策。由宏观层面的进攻性AI国家战略部署转向已覆盖的微观实验环境与真实战场,则能进一步透视其威慑力量与本质。进攻性AI还被应用于战场,为大规模的突袭战提供有力的军备算力支撑(表1)。
表1 进攻性AI在现代化战场和军事武器中的应用
1.3 进攻性AI与意识形态渗透
相比于军事领域内进攻性AI的显性价值观特征,非战争形态的意识形态操控和情报战争则更为隐蔽。进攻性AI具备深度伪造信息的功能,正在全球信息环境中被非道德、非法地使用着,成为全球诈骗、假新闻泛滥、隐蔽的心理操控的得力工具。第一,进攻性AI加剧假新闻、假情报与虚假认知的传播和扩散。第二,全球网络安全系统面临着更为严峻的挑战。第三,进攻性AI为破坏网络安全和全球性诈骗活动提供便利。
02. 进攻性AI的道德伦理考量及风险肇因
从本质上讲,AI作为当前人类文明发展水平的先进生产力代表之一,本应致力于“缓解当今世界极为突出的财富不均和全球科技发展不平衡两大问题,并促进世界和平”。但实践证明,进攻性AI难以做到以“和平”为真正的实然目的。完全定量化的进攻性AI可以为人类社会道德决策带来绝对客观的认识是不现实的,必须高度重视其潜在的伦理失范及其衍生的次生灾害。理由之一在于进攻性AI在构想之初的目的便是立于“人的反面”——针对和伤害人类。在战略博弈中,战争伦理也规定“有限的道德合法性”的先验立场,这构成进攻性AI伦理失范的根本性难题。二是由于信息情报采集数据的不完全真实性、算法设计人员的道德偏见、算法计算的发展限制、区域特色与差异等因素,进攻性AI可能带来算法偏见(algorithmic bias)。三是,定量化的进攻性AI难以满足政治的非中立、价值多元性,其不透明、难以道德审查等特征必然遭到质疑,当追求最大的利益冲动超越政治责任与社会责任,或将对全球公民权利、国际生态造成极大伤害。可见,仅仅将进攻性AI简单视为技术运算工具,可能会击破全人类的共同价值和道德底线。“技术上最伟大的胜利与最大的灾难几乎并列”,进攻性AI的伦理道德问题亟须正视。
2.1 技术不透明性与“黑匣子”带来的伦理责任风险
进攻性AI能够最大限度地排除人为因素并建立其独特的数字范式,这种数据训练模式所形成的机器价值导向并非透明的,其决策过程也被置于“黑匣子”之中。这样就意味着,进攻性AI在执行击杀任务的同时无法绝对秉承“价值中立”的原则,人类也无法确切考量进攻性AI对伦理、价值、生命、道德、权利等的追求与底线。进一步来说,进攻性AI目前无法理解人类生命的价值,缺乏对自己或他人死亡事件之意义的感知能力。因此,进攻性AI“科学化”“客观化”“专业化”的幻觉也加剧了现代战争中的伦理失范。
总之,进攻性AI的算法逻辑无法完全复现和遵循基于人类情感和经验的道德判断,其对任务执行的忠诚度显然要高于对人类生命意义与价值的感知,它并不能对其所执行的针对人类个体的伤害、虐待,甚至“斩首行动”的攻击性指令担负实际的责任。
2.2 情报无差别搜集的信息安全风险
进攻性AI非法从全球搜集军事情报与公众日常数据,其伦理失范问题可能引发全球道德恐慌。其一,进攻性AI的分析数据来源很可能依赖于国家间的不当监听、窃取信息的手段。其二,现代战场的智能体为非法搜集情报提供了更多的便利。其三,非法的情报搜集与不明的政治意图杂糅,使AI伦理责任主体晦暗不明。
2.3 对智能体进行人为控制的不确定性风险
多元化、复杂化的战争情境使进攻性AI的道德判断与区分原则背道而驰,人类预设的进攻程序缺乏满足复杂、海量的现代战争场景的道德应对能力,可能会诱导智能体做出不确定性控制下的极端行为,容易导致道德合法性危机。第一,进攻性AI的数据感知不确定性源于战场环境的不确定所引发的智能体行为的不确定。第二,进攻性AI缺乏对攻击任务背后的人类及复杂社会关系的应然理解。
2.4 进攻性AI无节制发展的政治不确定性风险
进攻性AI的无节制发展可能会进一步加剧各国之间已然存在的认知偏差,进而加剧国际战略博弈的政治不确定性与力量失衡问题。进攻性AI引发的道德恐慌(moral panic)成为次生风险。道德恐慌是一种过度的社会反应现象,媒体、公众、利益集团和官方共同营造的道德恐慌对形塑越轨行为起到了推波助澜的作用。其一,动态竞争压力、不确定性意图、进攻性 AI的动能与道德恐慌相互叠加。其二,道德恐慌所假定威胁的规模或严重程度往往是对真实情况的夸大。
03. 价值对齐:建立全球机器伦理治理共同体
技术的进步总是伴随着新的伦理问题。进攻性AI最具伦理挑战性之处,莫过于道德推理能力的算法化。正是如此,才使进攻性AI成为“纯粹的工具”与“道德主体”之间的某种具有过渡性质的智能体,并由此使其具备某种人类“德性”之雏形。要真正使进攻性AI技术的伦理学后效满足现有的人类价值观体系,其主要举措并不在于野蛮地禁止此类技术的研发,而恰恰在于如何使此类技术趋于具备人类意义上的“道德推理能力”。
3.1 设立人对机器的“道德主权”原则
通过确立人类“道德主权”的价值共识来重塑和创新AI治理理念是推动全球AI治理体系完善并使国际秩序趋于稳定的逻辑起点。首先,避免技术将人类“他者化”。其次,警惕虚幻的“技术共同体”。最后,确保人类在战略博弈中的主体地位。
3.2 凝聚全球范围的道德风险治理共识
国家层面应当积极推动AI风险治理由“线性”到“复合”、由“一元”向“多元”、由“人工”向“智能”方式的转变。传统的AI风险治理是基于被动防御式的“链条” 治理,其基本逻辑遵循“风险产生—认知—识别—分析预判—人工决策”的线性信息处理模型。实际上,各国对AI技术的全面介入已经为“复合网络”的综合道德考量模式提供了可行性基础。第一,构建纵深化、一体化、协同化的全球AI风险治理网络中心。第二,构建风险治理主体在话语权上的“技术平衡”。第三,各国之间必须积极主动地寻求合作与共治之道。
3.3 完善进攻性AI的风险评估体系
进攻性AI亟待建立统一的、完善的伦理风险评估体系与监管措施条例。建立全球关于进攻性AI的风险评估体系需要满足3个条件。首先,应当建立完善的进攻性AI道德风险评估方案与参照细则。其次,成立分级体系明确、责任划分清晰、实时动态评估的监管机构。最后,确保进攻性AI投入战略博弈符合相应的风险等级。
3.4 不可控场景的“道德嵌入”
AI的能力会随着时间的推移和使用方式的改变而改变,必须从设计之初就要考虑未来可能面临的所有风险类型与其道德规范框架,如此才不至于产生对进攻性AI发展走向的过度非理性恐惧。第一,增强“价值敏感”设计的伦理审查与可解释性。第二,将进攻性AI的决策置于具备道德责任感的人类设计理念之中,进攻性AI不应受到非法的控制或歪曲,也不应受撒谎、操纵、胁迫或扭曲的影响。第三,应当置于宏大的全球叙事下考察进攻性AI伦理风险治理的意义。
04. 结论
综上,不同于AI在经济生产实践中的作用,进攻性AI应用于国际战略博弈或战场环境会构成更深层次的伦理风险挑战。在深度考察进攻性AI伦理属性、伦理责任及伦理走向后,如何应对国际人道法和武装冲突法对于AI武器系统的适用性的争议问题,依然是国际社会当前所面临的共同且迫切的课题。进攻性AI的伦理风险治理,绝不仅限于建立限制进攻性AI发展的国际合作框架和规则体系,而是要更加迅速地推进进攻性AI的透明度改造和人类情感中具有伦理、道德、责任属性的因素嵌入,并确保可以追溯和审计,支持开展多领域、跨学科的对话以寻求规范之道。让进攻性 AI技术充满人文(伦理)关怀,是在不确定风险下依然可以使技术保护全人类的价值基础,并在此基础上构建“智能威慑”以规范人类世界的技术运用方式。在此过程中,基于文明互鉴进行AI风险的全球治理并贡献中国智慧、中国方案、中国力量,才能确保这项强大的技术能力被谨慎地运用,服务于全人类的和平与安全。
作者简介:王英明,中国石油大学(华东)马克思主义学院,硕士研究生,研究方向为技术伦理;石超(通信作者),中国石油大学(华东)马克思主义学院,副教授,研究方向为技术伦理、思想政治教育。
白名单回复后台「转载」
☟
《科技导报》创刊于1980年,中国科协学术会刊,主要刊登科学前沿和技术热点领域突破性的成果报道、权威性的科学评论、引领性的高端综述,发表促进经济社会发展、完善科技管理、优化科研环境、培育科学文化、促进科技创新和科技成果转化的决策咨询建议。常设栏目有院士卷首语、智库观点、科技评论、热点专题、综述、论文、学术聚焦、科学人文等。
《科技导报》微信公众平台创建于2014年,主要刊登《科技导报》期刊内容要点,报道热点科技问题、科技事件、科学人物,打造与纸刊紧密联系又特色鲜明的新媒体平台。
科技导报公众号聚集了数万名专心学术的未来之星和学术大咖,添加编辑微信,让优秀的你有机会与志趣相同的人相遇。
来源:科技导报