摘要:2025年联合国关于AI武器的讨论,聚焦于致命自主武器系统(Lethal Autonomous Weapons Systems, LAWS),特别是“自主杀戮”(autonomous kill)决策的责任归属问题,成为各国争论的焦点。这些讨论主要在联合国常规武
2025年联合国关于AI武器的讨论,聚焦于致命自主武器系统(Lethal Autonomous Weapons Systems, LAWS),特别是“自主杀戮”(autonomous kill)决策的责任归属问题,成为各国争论的焦点。这些讨论主要在联合国常规武器公约(Convention on Conventional Weapons, CCW)框架下的政府专家组(Group of Governmental Experts, GGE)以及联合国大会第一委员会(First Committee)等平台展开。以下是对讨论背景、争论要点、各国立场及其背后原因的详细分析,结合2025年的最新进展和相关资料。
一、讨论背景与“自主杀戮”责任问题的核心
1. 致命自主武器的定义与挑战
致命自主武器系统(LAWS)指能够自主选择目标并施加致命武力而无需人类直接干预的武器。典型例子包括无人机(如土耳其的Kargu-2)、自主巡航弹药(如俄罗斯的ZALA Aero KUB-BLA)以及AI驱动的火控系统。这些系统利用传感器和算法进行目标识别、跟踪和攻击,但其“自主性”引发了法律、伦理和安全问题,尤其是在“自主杀戮”场景中。
“自主杀戮”责任归属的核心问题在于:当AI武器系统在没有人类直接控制的情况下执行致命行动,导致平民伤亡或违反国际人道法(International Humanitarian Law, IHL)时,责任应归于谁?可能的责任主体包括:
国家:开发、部署武器的国家是否应对其行为负责?
指挥官:军事指挥官是否应对AI武器的决策失误承担指挥责任?
开发者:设计算法的科技公司是否需为技术缺陷负责?
武器本身:是否应将AI视为“责任主体”,类似人类的代理?
2. 2025年联合国讨论的背景
2025年的讨论是2014年以来CCW框架下关于LAWS谈判的延续,受到以下因素推动:
技术扩散:据未来生命研究所(Future of Life Institute)统计,截至2025年,全球约200种自主武器系统已在乌克兰、中东和非洲等地部署,显示技术扩散的紧迫性。
冲突中的实际使用:2021年利比亚冲突中,土耳其Kargu-2无人机被报道在自主模式下攻击目标,成为首个公开的“自主杀戮”案例。2022年乌克兰战争中,俄罗斯的Shahed-136无人机群也展示了自主巡航能力。
国际压力:联合国秘书长安东尼奥·古特雷斯(António Guterres)自2018年起多次呼吁禁止缺乏人类控制的LAWS,设定2026年为达成约束性协议的最后期限。2023年和2024年的联合国大会决议(分别获164票和166票支持)进一步推动了全球对LAWS的关注。
2025年5月12日,联合国大会在纽约召开首次专门讨论自主武器的会议,旨在为9月的CCW谈判奠定基础。会议不仅讨论技术定义和法律框架,还深入探讨了责任归属的伦理和人权维度。
二、各国对“自主杀戮”责任归属的立场与争论
各国在责任归属问题上的分歧反映了地缘政治、军事战略和伦理观念的差异。以下是主要国家和集团的立场,以及争论的焦点:
1. 主张严格责任与禁止自主武器的国家
代表国家:奥地利、菲律宾、阿尔及利亚、萨尔瓦多、巴西等(共129国支持约束性法律框架)。
立场:
严格责任归属国家:这些国家认为,部署LAWS的国家应承担主要责任,类似国际法中的“国家责任”原则(State Responsibility)。例如,阿尔及利亚在2016年提出,LAWS的开发、测试和使用应通过国际法律禁止,强调“有意义的人类控制”(meaningful human control)是责任分配的前提。
禁止自主杀戮:菲律宾在2023年马尼拉会议上警告,LAWS可能“降低使用武力的门槛并加剧冲突”,主张禁止完全自主的武器系统,强调人类必须保留最终决策权。土耳其在2022年联合国大会上表示,缺乏人类控制的LAWS与国际人道法相冲突,指挥官和操作员应承担最终责任。
伦理与人权关切:人权观察(Human Rights Watch)和国际特赦组织(Amnesty International)等非政府组织指出,自主杀戮违反《马滕斯条款》(Martens Clause),因为机器无法体现“人道原则”和“公共良知”。这些国家支持这一观点,认为LAWS可能导致针对特定群体(如基于种族或宗教)的选择性杀戮,增加种族清洗风险。
争论焦点:
这些国家主张通过新的国际条约明确责任归属,类似于《禁止地雷公约》。但定义“有意义的人类控制”存在困难,例如,人类是否需实时监控?还是仅需设定初始参数?
反对者认为,严格的责任框架可能限制技术发展,尤其是在防御性应用(如导弹防御系统)中。
2. 主张现有法律框架与国家自主立法的国家
代表国家:美国、俄罗斯、中国、印度、以色列、英国。
立场:
现有法律适用:美国坚持,现有国际人道法(如《日内瓦公约》)足以规范LAWS,强调“适当的人类判断”(appropriate human judgment)而非“有意义的人类控制”。美国国防部2012年的《3000.09号指令》要求自主武器必须确保人类监督,责任归于指挥官而非算法。2023年美国主导的《军事AI负责任使用政治宣言》进一步推广了非约束性指南,强调国家自主制定政策。
反对约束性条约:俄罗斯明确反对任何约束性文书,认为CCW是唯一合法讨论平台,现有法律足以应对。俄罗斯在2024年联合国大会上投票反对LAWS决议,称其“重复讨论”无益。
技术中立立场:中国对LAWS的态度暧昧,强调需“充分考虑一般法律规范的适用性”,同时投资于自主武器研发。中国在2024年联合国大会上弃权,显示其不愿受国际约束。
印度与以色列的实用主义:印度支持非约束性的“政治宣言”,认为自主武器可提高精度,减少人类错误。以色列则因在中东冲突中使用AI武器(如Lavender系统),倾向于国家自主监管而非国际条约。
争论焦点:
这些国家认为,责任应根据现有法律追溯至指挥官或国家,而非算法本身。美国五角大楼发言人表示,自主武器可能比传统武器对平民风险更低,因其精度更高。
反对者批评这一立场忽视了黑箱问题(算法决策不可解释),导致责任归属模糊。例如,2024年《Nature》研究指出,深度学习模型的决策过程难以解析,指挥官可能无法预测或控制AI行为。
3. 非国家行为者与武器扩散的额外争议
背景:LAWS的低成本和易获取性使其可能流入非国家行为者(如恐怖组织)手中。例如,2024年“停止杀手机器人”运动警告,自主武器可能通过黑市扩散,增加恐怖主义和种族清洗风险。
立场:
支持监管的国家:奥地利、巴西等国主张,国际条约应明确禁止LAWS向非国家行为者转移,并建立追踪机制。2024年加勒比共同体(CARICOM)宣言强调了这一风险。
大国立场:美国和俄罗斯认为,非国家行为者的威胁应通过国家安全措施而非国际禁令解决。美国指出,其“复制者计划”(Replicator Initiative)旨在快速部署自主武器,但严格控制其出口。
争论焦点:
如何确保LAWS不被非法获取?现有《武器贸易条约》(Arms Trade Treaty)是否足以应对AI武器的扩散?
责任归属是否应扩展至武器制造商?例如,美国的Anduril公司生产自主武器,其法律责任尚未明确。
4. 伦理与技术复杂性的交锋
黑箱问题:2024年《Nature》研究强调,AI模型的不可解释性使责任归属更加困难。例如,若AI武器误判平民为战斗人员,指挥官可能因无法预见算法行为而免责。
性别与歧视风险:2025年妇女国际和平与自由联盟(WILPF)提交的报告指出,LAWS的算法可能嵌入性别偏见,导致对特定群体的歧视性攻击,增加平民伤亡和心理创伤。
争论焦点:
是否应要求AI武器具备“可解释性”作为部署前提?可解释AI(XAI)技术(如LIME、SHAP)虽有进展,但仍无法完全破解黑箱。
伦理责任是否应超越法律责任?例如,是否需为LAWS的受害者设立国际赔偿机制?
三、争论背后的原因与影响
1. 地缘政治与军事竞争
大国博弈:美国、俄罗斯、中国等国的反对立场源于对军事优势的追求。美国2023年启动的-CORRECTION: 美国2023年启动的“复制者计划”计划到2025年8月部署数千个自主武器系统,显示其不愿受国际约束。俄罗斯和中国则担忧约束性条约可能限制其在乌克兰和台海等地区的战略灵活性。
技术竞赛:AI武器的低成本和高效率(如“屠杀机器人”)使其成为大国与非国家行为者的战略资产。2025年联合国讨论中,各国对责任归属的争论部分是为了保护本国技术优势,同时避免被指责为战争罪。
2. 法律与伦理的分歧
法律适用性:支持现有法律的国家认为,《日内瓦公约》和《武器公约》的原则(如区分原则、比例原则)足以规范LAWS。但人权观察指出,LAWS的不可预测性导致“责任真空”,现有法律无法应对算法的复杂性。
伦理底线:反对自主杀戮的国家引用《马滕斯条款》,认为机器缺乏“人道”和“良知”,无法承担伦理责任。这种观点与技术中立派(认为AI可提高精度)形成鲜明对比。
3. 技术现实的制约
黑箱问题:2024年《Nature》研究显示,深度学习模型的决策过程难以解析,使责任归属成为技术难题。例如,医疗AI的误诊已引发法律纠纷,LAWS的杀戮决策可能导致更大争议。
扩散风险:LAWS的低成本(如“屠杀机器人”无需昂贵材料)使其易被复制,增加非国家行为者的威胁。2025年讨论中,各国对如何监管黑市交易的争论进一步复杂化了责任问题。
4. 影响
谈判僵局:CCW的共识决策机制使少数大国(如俄罗斯)能够阻挠进展。2025年5月的纽约会议虽扩大了讨论范围(如伦理和人权),但未达成具体责任框架。
潜在后果:若责任归属问题未解决,LAWS可能导致无人负责的“战争罪”,加剧人道主义危机。例如,2024年加沙冲突中,以色列的AI武器(如Lavender系统)被指误杀平民,但责任归属不清。
四、可能的解决方案与未来展望
1. 技术解决方案
可解释AI(XAI):开发透明的AI模型(如混合黑箱与白箱模型)可能缓解黑箱问题。2024年一项医疗领域的试验显示,白箱模型可部分复制黑箱性能,同时提高可解释性。但XAI的计算成本和精度限制仍需克服。
人类控制标准:制定“有意义的人类控制”的技术规范,例如要求实时人类监督或手动终止功能。2024年GGE讨论了“双层方法”,禁止无人类控制的LAWS,规范可控系统。
2. 法律与监管
新条约:129国支持的约束性条约可能明确国家、指挥官和开发者的责任。例如,禁止针对人类的自主武器,并要求制造商承担民事责任。2025年5月的咨询会议为2026年条约谈判奠定了基础。
国际机制:建立类似《核不扩散条约》(NPT)的机制,监管LAWS的开发和转让,同时设立受害者赔偿基金。2024年联合国决议要求古特雷斯收集各国意见,为此提供依据。
3. 伦理与社会参与
多方合作:2025年讨论首次纳入民间社会、行业和科学界,增强了伦理视角。例如,停止杀手机器人运动推动公众对责任问题的关注。
性别与人权视角:WILPF建议将性别分析纳入LAWS监管,避免算法歧视,保护弱势群体。
4. 未来展望
短期:2025年9月的CCW谈判可能因大国分歧而进展有限,但非约束性指南(如美国的政治宣言)可能作为过渡措施。
长期:若2026年未能达成条约,LAWS的扩散可能加剧伦理和法律危机,促使更多国家支持禁令。古特雷斯的2026年最后期限将是关键节点。
五、结论
2025年联合国关于AI武器的讨论中,“自主杀戮”责任归属的争论反映了技术、法律和伦理的复杂交织。支持严格监管的国家(如奥地利、菲律宾)主张国家责任和禁止无人类控制的LAWS,强调人道与人权;而大国(如美国、俄罗斯)倾向于现有法律和国家自主,优先考虑军事优势。黑箱问题、武器扩散和伦理关切进一步加剧了分歧。
尽管讨论扩大了伦理和人权维度,但共识仍难以达成。未来的解决方案可能包括可解释AI、新条约和多方合作,但需克服大国博弈和技术限制。责任归属问题不仅是法律难题,更是人类对技术控制的哲学追问。正如2024年《Nature》研究揭示的AI黑箱困境,科学主义的局限在LAWS中暴露无遗,呼唤理性与伦理的平衡,以确保AI武器服务于和平而非毁灭。
讨论问题:
您认为“有意义的人类控制”应如何定义?是否足以解决责任归属问题?
大国对约束性条约的抵制是否合理?如何平衡军事优势与人道关切?
若LAWS导致平民伤亡,责任应归于国家、指挥官还是开发者?是否需新的法律框架?
参考资料:
Nature (2024). “The Black Box Problem in Deep Learning.” Vol. 632, pp. 45-50.
Reuters (2025). “Nations meet at UN for 'killer robot' talks as regulation lags.”
Autonomous Weapons Systems (2025). “The Political Landscape: How Nations are Responding to Autonomous Weapons in War.”
Neuron.expert (2025). “UN Summit 2025 Addresses Regulation of AI-Powered Autonomous Weapons.”
Human Rights Watch (2020). “Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons.”
Carnegie Endowment (2024). “Understanding the Global Debate on Lethal Autonomous Weapons Systems: An Indian Perspective.”
SIPRI (2025). “Dilemmas in the policy debate on autonomous weapon systems.”
Stop Killer Robots (2024). “161 states vote against the machine at the UN General Assembly.”
Human Rights Watch (2024). “Killer Robots: UN Vote Should Spur Action on Treaty.”
UNODA (2025). “Lethal Autonomous Weapon Systems (LAWS).”
ASIL (2025). “Lethal Autonomous Weapons Systems & International Law.”
Reaching Critical Will (2025). “2025 Informal Consultations on LAWS.”
Foreign Policy (2022). “Lethal Autonomous Weapons Systems Are Here—and We Need to Regulate Them.”
Temple iLIT (2024). “Lethal Autonomous Weapon Systems: Accountability, Collateral Damage, and the Inadequacies of International Law.”
UNGeneva (2025). Post on X about AI and LAWS.
来源:海棠入梦