从核治理的历史经验看人工智能国际治理

360影视 欧美动漫 2025-06-10 19:19 1

摘要:当前,许多关于人工智能国际治理的提议都借鉴了现有的核治理机制。2025年5月,兰德发布了题为《核历史对人工智能治理的启示》(Insights from Nuclear History for AI Governance)的报告,探讨了如何从核治理中汲取经验,以

当前,许多关于人工智能国际治理的提议都借鉴了现有的核治理机制。2025年5月,兰德发布了题为《核历史对人工智能治理的启示》(Insights from Nuclear History for AI Governance)的报告,探讨了如何从核治理中汲取经验,以应对人工智能国际治理的挑战。该报告审视了核治理的两个重要案例:巴鲁克计划的失败和《不扩散核武器条约》(NPT)的成功,以理解影响这些治理倡议成败的因素。启元洞见编译核心内容,旨在为读者提供参考。

人工智能技术发展迅速,引发了建立全球性监管机制以应对潜在灾难性风险的呼声。许多人工智能专家和政策制定者都从核治理历程中寻找人工智能治理的经验,以平衡市场竞争与公共安全。

人工智能与核武器之间存在多重类比:两者都具有军民两用性质;都依赖高度专业化且获取受限的基础材料(如铀和芯片);以及科学进步的迅猛性导致军备竞赛态势。更重要的是,它们都具备跨越国界的灾难性危害潜力,使得仅限于国家层面的监管远远不足。

本文以1946年失败的“巴鲁克计划”与1968年达成的《不扩散核武器条约》为案例,尝试分析其成败经验,并将其类比于人工智能国际治理的构建逻辑,指出适用性与局限性。

巴鲁克计划的失败经验

1946年,美国向联合国提出“巴鲁克计划”,提议将核武器控制权移交国际机构,以实现核能的和平利用与全球安全。尽管该计划被美国描述为放弃原子优势以换取全球安全的慷慨之举,苏联却视之为遏制其战略发展的不平等提案。

(一)试图遏制核技术的危险潜力

巴鲁克计划提出,美国将在其他国家放弃核武器开发并接受核查、国际机构正式建立后,销毁自身核武器库。然而在国际机构建立之前,所有国家必须开放其核活动供国际核查,而美国则暂时保留核武器。1946年6月19日,苏联代表提出反对建议,主张通过国际公约禁止核武器的生产、储存与使用,销毁现有核武器,同时不设置任何国际监督机构。该提案本质上排斥美国提出的核查与控制机制,回避了对国际干预主权事务的容忍问题。

尽管美国推动尽快表决巴鲁克提案并获得多数安理会国家支持,苏联与波兰投票反对,最终导致方案搁浅。1949年,苏联成功进行首次核试验,标志着美国对核技术的垄断终结。

(二)巴鲁克计划失败的原因

巴鲁克计划的失败对人工智能治理具有启示意义:双重用途技术的国际控制方案,唯有在所有相关方都认为其真诚和公平的情况下才可能成功。任何旨在延续一国优势的提案,都可能被视为权谋,最终阻碍长期合作。

美国国内的政治考量亦影响方案设定——公众普遍不愿放弃核优势,美国官员亦将核武视为对抗苏联的常规力量平衡工具。

巴鲁克及其团队的强硬外交策略加剧了对立,缺乏对苏联安全利益的实质回应。即便苏联当时尚未具备核能力,其科学进展远快于美国预期,使美国期望依靠技术垄断维持核优势变得不现实。美国坚持大规模国际控制而非可行性较高的逐步过渡措施,反而阻碍了妥协与信任建立。最终,巴鲁克计划未能达成任何实际成果,反而造成美苏进一步对立,使后续国际核治理的实现更加复杂化。

简而言之,巴鲁克计划可能弊大于利。因此,它主要作为在设计和谈判危险新技术国际控制机制时“不应做什么”的案例。这段历史教训表明,在人工智能领域,试图从实力或技术优势地位进行全球治理谈判将是困难的,特别是当其他国家认为此类谈判提议旨在巩固某国的优势。

《不扩散核武器条约》的成功启示

《不扩散核武器条约》(NPT)于1968年签署、1970年生效。与巴鲁克计划相比,该条约的成功依赖于美苏对战略稳定的共同认识、对核扩散风险的认知升级及利益契合带来的合作动力。

(一)冷战初期

冷战延迟了不扩散协议的达成。这一背景有以下几个特点:苏联在部署核武器方面比美国预期更快,打破了美国保持核武器排他性的观念。当时的竞争氛围不利于美苏间不扩散协议的制定,双方都专注于超级大国对抗,发展核武库以威慑对方。“原子和平计划”虽提出了不扩散架构,但未立即实施。

(二)风险认知的演变

推动美苏达成不扩散协议的关键是对核扩散风险日益增长的认识。随着20世纪50至60年代更多国家核武器化,促使美国将不扩散视为增强影响力并减少核战争风险的战略。

核技术快速发展,特别是氢弹的出现,加剧了核威胁。核战争的系列危机,特别是古巴导弹危机,暴露了核武器边缘政策的巨大风险。这些危机虽为不扩散谈判创造了空间。

此外,导弹技术发展强化了“相互保证毁灭”(MAD)理论,缩短了反应时间,增加了摧毁对手核武库的难度促使双方理性选择维持僵局而非试图打破平衡。

(三)核武器作为国际稳定和冲突预防的潜在工具

随着技术创新提高了超级大国的核威慑和二次打击能力的生存性,双方发展了成熟的二次打击能力,并形成了“相互保证毁灭”和核稳定概念,将核武器视为国际稳定与冲突预防的潜在工具。因为每个超级大国的核武库都保证了任何一方都无法在核冲突中获得先发优势。美苏接受了这些概念,并从“赢得核战争”转向“防止新核力量出现”和“避免毁灭性核战争”,使得包括不扩散在内的军备控制讨论变得可行。

核僵局战略促使两国更密切地关注核不扩散以维护稳定。随着核僵局共识的形成,不可信赖国家获得核武器引发的扩散担忧日益增加,因其可能破坏全球力量平衡。技术进步也加剧了核扩散的威胁,更多国家被认为有能力发展核武库。

(四)两大超级强国合谋的益处

当国际环境更有利于不扩散谈判时,美苏开始看到串通限制核武器扩散的潜在好处。核武器的持续扩散,特别是扩散到非亲密伙伴国家,增加了核武器被冷战联盟体系外不可信赖行为者开发的担忧。在战略稳定背景下,这种扩散可能破坏美苏之间已成熟的核力量构成的核现状。

在这样的情况下,延伸威慑这一概念的重要性日益凸显,也就是说美国承诺,一旦其盟友的领土遭受攻击,将会以核力量进行反击,以此来遏制此类攻击行为的发生。

美苏之间开始存在妥协可能性。1966年,苏联得到美国不会向西德转让核武器的保证,这项“不转让条款”成为《不扩散核武器条约》的核心。但根据条约,美国可在西德及其他盟国驻扎核武器,只要其完全受美方控制,以继续威慑苏联。这种妥协既满足了苏联对西德发展核武的担忧,也推进了美国在核不扩散上的利益。

最终,延伸威慑通过消除美国盟友和伙伴发展自身核武器的必要性,从而支持了不扩散,减少了美国伙伴间核武器的扩散,这些伙伴相信可依赖美国提供的核保护伞。

(五)双方为何愿意妥协以建立核治理机制

美苏愿意妥协以减少核不扩散威胁的原因有几点,这些因素可能协同作用,促成了《不扩散核武器条约》的成功谈判。

一种理论认为,超级大国及其欧洲盟友在制定欧洲核秩序和接受欧洲冷战领土划分上存在共同利益。

第二种理论强调,尽管德国核武器化是关键问题,但两国也严重担忧全球核扩散,这促使它们通过“大交易”来遏制核扩散。

这两种理论都支持美苏有理由合谋,以保持自身核力量,同时限制第三方国家加入核俱乐部,避免破坏全球力量平衡。

另一个主要原因是,双方最终都接受了战略稳定的价值。战略稳定意味着任何一方都不认为使用核武器会比持续核威慑和通过非核手段追求国家安全目标更好。美苏间战略稳定的发展促使两国认真对待核不扩散,以维护力量平衡。在战略稳定条件下,核国家有动力阻止可能破坏现有平衡的扩散。

此外,《不扩散核武器条约》不仅满足了当时核超级大国的利益,而且提供了一种双方都能接受的、鼓励遵守的共同商定手段。《不扩散核武器条约》通过两种方式维持:“胡萝卜”(以向遵守国提供民用核技术为形式)和“大棒”(以对《不扩散核武器条约》生效后试图发展核武器的国家实施制裁甚至其他军事行动为形式)。这些激励措施促使无核国家留在《不扩散核武器条约》内,尽管少数国家仍为自身战略利益寻求核武器,并为此付出巨大代价。

《不扩散核武器条约》的成功依赖于核武器国家的协调与合作,它们持续合作以尽量减少新核国家的出现。每个核武器国家都从保持“核俱乐部”规模小和彼此间维持核稳定中获得显著利益。《不扩散核武器条约》对核大国带来的稳定利益是该条约自谈判以来相对成功和存续的基础。

从核武器的过往经验中识别建立人工智能国际治理机制的挑战

创建《不扩散核武器条约》和核稳定机制的经验表明,成功的治理需要对潜在风险、实际治理方和治理机制有清晰理解。然而,将核治理模式应用于人工智能目前尚不可行。主要障碍在于:对人工智能风险的看法存在分歧、复杂的参与者生态系统以及治理方法的不确定性。《不扩散核武器条约》历史暗示,人工智能全球治理,特别是防止最强大模型扩散的治理,可能只有在主要人工智能强国实力对等且相互脆弱时才能实现。

由于人工智能国际治理涉及可能影响国家安全和经济增长的政治决策,这些分歧在短期内阻碍了灾难性人工智能风险机制的建立。

(一)对人工智能风险的看法分歧

关于人工智能技术是否构成与核武器相当的极端或灾难性风险,存在持续分歧。部分专家指出,强人工智能带来滥用风险(如开发毁灭性武器)和失控人工智能风险(人工智能追求有害人类的目标)。但人工智能公司如OpenAI认为,其现有人工智能模型对生物威胁创造的提升微乎其微。

失控人工智能的风险也备受争议。一些研究人员认为人工智能永远不会失控,性能可能达到瓶颈;另一些人则认为具有欺骗性的人工智能超级智能已然存在。评估人工智能是否构成灾难性风险十分困难,评估标准仍在发展,且独立研究人员通常无法访问专有模型。

也有人讨论人工智能可能巩固极权主义国家等其他危害。然而,这些是累积性伤害,而非突然事件,与核冲突有本质区别,可能需要不同的治理形式,单一的《不扩散核武器条约》式条约难以涵盖。

与核风险不同,人工智能尚未经历如核试验、广岛长崎核爆、古巴导弹危机等具体事件来形成全球共识。核风险管理机构如国际原子能机构(IAEA)专注于可控且已充分理解的风险,而人工智能风险共识尚缺。

目前也不存在人工智能稳定或僵局,无论是国家间还是公司间。人工智能技术尚不成熟,其潜力不确定,无法清晰理解人工智能如何用于国家安全或威胁他国利益。人工智能领域没有战略平衡,部署人工智能未因潜在巨大负面后果而受阻,反而被视为带来战略和经济优势。

人工智能能力发展迅速,未来可能出现展示性事件促成共识。但在此之前,这些争议将阻碍艰难的行动。

(二)复杂的参与者生态系统

人工智能的全球开发者既包括国家也包括私人企业。与核技术政府主导不同,人工智能发展以私营企业为主,技术扩散快、复制成本低、开放源代码普遍,使得“控制”变得异常复杂。治理必须兼顾国家利益与企业激励,需处理“两级博弈”。因此,治理人工智能需要解决一场“两级博弈”,不仅要解决国家间的战略互动,还要解决私营企业间的战略互动,这增加了制定人工智能治理机制的复杂性。

要建立人工智能全球治理机制,全球人工智能强国需首先确定共同可接受的条款。非西方强国未必愿接受以削弱自身发展为前提的治理协议。此外,技术飞速进步和国家间的不信任,可能使治理方案因政治动机遭到拒绝。巴鲁克计划的例子也暗示,旨在永久削弱战略对手在重要新技术中优势的政策可能适得其反。

(三)治理机制的不确定性

人工智能治理的核心要素包括数据、算法与算力。目前,数据与模型难以有效监管,因此算力被认为是最可行的治理切入点,堪比核稳定机制中的铀。高端芯片供应链集中于少数国家,理论上有利于监测与限制。但算力监管的效力取决于未来人工智能发展是否仍依赖集中式大模型训练。若小型、分布式人工智能具备高性能,则算力治理可能失效。

更重要的是,算力监管可能被视为遏制发展中国家的不公平工具,必须辅以技术转让、能力建设等“胡萝卜”以获取更广泛支持。治理机制还需权衡创新激励与风险防控的关系。

最后一个挑战是时间紧迫性。《不扩散核武器条约》生效于广岛、长崎事件25年后,而人工智能发展迅速,危险人工智能能力(如生物武器制造)可能在几年内出现。因此,开发有效的人工智能全球治理机制更具紧迫性,留给有利的知识和地缘政治发展的时间可能更少,这可能使人工智能治理的成功比《不扩散核武器条约》的创建更难。

结论

核治理的成功建立在两个超级大国对核稳定共识的基础之上,并历经二十年才系统化。而人工智能治理尚无类似的“稳定理论”或国际共识。技术的不成熟性、发展速度及其政治经济影响的不确定性,使其更难以达成统一治理模式。

巴鲁克计划的教训仍具现实意义:试图通过制度化技术劣势控制他国将引发广泛抵制,尤其是在缺乏信任基础时。因此,人工智能治理的前景更依赖于在特定领域(如人工智能对核稳定的影响)上寻求共识与逐步合作。

人工智能治理的有效路径或将不同于核武器治理,而是建立在动态、多边、分领域的机制创新上。尽管挑战重重,历史经验仍提供了重要启示,帮助识别可行治理路径与避免重复过往失误。

转自丨启元洞见

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

_er

来源:全球技术地图

相关推荐