摘要:自2018年欧盟委员会发布《欧盟人工智能》政策文件以来,欧盟逐渐形成以规范塑造、规则引领和技术主权为核心支柱的人工智能战略。然而,以“监管先行”为特征的欧盟人工智能战略在实施过程中,面临缺少军事力量支撑、技术治理的“泛安全化”倾向与创新抑制效应、产业生态的结构
内容提要
自2018年欧盟委员会发布《欧盟人工智能》政策文件以来,欧盟逐渐形成以规范塑造、规则引领和技术主权为核心支柱的人工智能战略。然而,以“监管先行”为特征的欧盟人工智能战略在实施过程中,面临缺少军事力量支撑、技术治理的“泛安全化”倾向与创新抑制效应、产业生态的结构性短板与系统创新不足、国际合作中的战略自主诉求与现实依赖困境等多重制约。面对“监管有余、竞争力不足”的现实,欧盟寻求调整人工智能战略,在维系自身治理优势地位的同时提高技术创新能力。中国和欧盟在人工智能技术研发上具有互补优势,在可持续发展上利益契合,在全球治理上立场相近,双方应在机制对话、规则标准、多边协调等方面加强合作,共同推动构建开放、公正、有效的全球人工智能治理体系,促进人工智能技术造福人类。关键词
作者系同济大学政治与国际关系学院教授,网络空间国际治理研究基地常务副主任
文章原载于《当代世界》2025年第5期,注释略
随着大模型能力的不断突破,人工智能对国家安全、经济与政治的深远影响日益凸显,世界主要国家纷纷制定国家层面的人工智能战略,争夺未来科技主导权。在此背景下,欧盟选择了一条以规范塑造和价值引领为核心的路径,试图通过规则设定和伦理倡议在全球人工智能治理中占据主导地位。然而,这一“监管先行”的战略路径在技术创新加速演进与地缘政治竞争加剧的现实面前,面临日益突出的张力与失衡。为在维系规范优势地位的同时提升技术竞争力,欧盟正尝试调整人工智能战略,这将为欧盟人工智能发展及中欧人工智能治理合作带来契机。
欧盟人工智能战略的核心支柱
2018年,欧盟委员会发布《欧盟人工智能》政策文件,首次将人工智能明确纳入政策议程,提出加强研发投入、完善数据基础设施和制定伦理规范,以构建“可信赖的人工智能”体系。2020年,欧盟进一步推出《人工智能白皮书》,提出建立以“卓越与信任”为核心的双支柱模式,预示着其监管议程从原则导向转向制度化设计。2021年4月,欧盟委员会正式公布《人工智能法案草案》,确立了基于风险分级的治理框架,标志着欧盟人工智能战略从价值导向的“软法”路径,迈向具有法律约束力的“硬法”监管模式。2024年8月1日,欧盟《人工智能法案》完成立法程序并正式生效,成为全球首部全面监管人工智能的法律框架。总体来看,欧盟的人工智能战略逐渐形成了规范塑造、规则引领和技术主权三大核心支柱。
一是规范塑造,即以价值导向的监管框架引领技术应用方向,通过《人工智能法案》确立严格的风险分类监管模式,为全球人工智能治理提供“欧盟范式”。作为具有超国家性质的国际组织,欧盟擅长通过规则制定来放大自身影响力,即所谓的“布鲁塞尔效应”。这种机制的优越性在环境议题、数字服务、数据保护等领域已得到多次验证。在人工智能领域,欧盟也试图以严格的监管框架树立全球标杆。作为全球首部全面监管人工智能的法律,《人工智能法案》构建了基于风险分类的监管体系,涵盖高风险系统审查、透明度要求、数据治理与合规机制等内容,形成了从设计到部署的全过程监管链条。该法案不仅为欧盟成员国提供了统一的治理依据,也对全球人工智能企业进入欧洲市场设定了标准门槛,从而推动欧盟治理范式的国际扩散与制度移植。
二是规则引领,欧盟试图将“可信赖”“以人为本”的价值观输出到国际舞台,在多边机制中争取规则制定权和影响力。欧盟在联合国、经合组织(OECD)、七国集团(G7)、二十国集团(G20)等多边平台积极倡导建立全球人工智能伦理准则与治理框架。2023年G7广岛峰会期间,欧盟与G7成员国共同推动出台“广岛人工智能进程”(Hiroshima AI Process),强调对生成式人工智能的前沿监管、风险评估和透明责任机制。同时,欧盟积极支持联合国秘书长提出的设立“全球人工智能治理机构”的建议,提议由联合国教科文组织牵头制定全球人工智能伦理标准。欧盟还通过与非洲建立数字经济伙伴关系、“东盟—欧盟战略伙伴关系”等,与全球南方国家共建人工智能能力建设机制,推广欧洲治理经验,体现了欧盟试图在中美技术优势之外,开辟第三条治理道路,即以规范性优势拓展战略纵深。
三是技术主权,强调提升数字技术自主性,减少对外部技术的依赖。与中美相比,欧盟在人工智能技术研发和产业创新方面的实力明显不足,呈现出战略维度上的失衡。一方面,欧盟的人工智能研究和应用水平相对落后于中美两国,欧洲本土能跻身人工智能前沿的企业寥寥可数。尽管2025年启动的“数字欧洲计划”以及2024年发布的支持初创企业和中小企业的创新方案,为提升欧洲本土人工智能产业实力、增强技术自主性提供了蓝图,但其整体创新生态与美国硅谷和以中国杭州、深圳为代表的新人工智能产业集群难以比肩。另一方面,欧洲对人工智能的投入远逊于中美两国。据统计,2023年欧盟人工智能领域的创投总额约为80亿美元,而美国高达680亿美元、中国为150亿美元。欧盟因技术和产业方面的短板,在全球人工智能竞赛中难以跟上中美两国的节奏。为此,欧盟委员会主席冯德莱恩在2025年巴黎人工智能行动峰会上指出,欧洲不应亦步亦趋追随他人,而要发挥自身科研与人才优势,打造“欧洲品牌”的人工智能。
欧盟人工智能战略的失衡困境
尽管欧盟构建了具有战略愿景的人工智能治理框架,但其在战略实施过程中表现出多重失衡,本质上是其治理体系与技术创新规律间结构性张力的外化表现。从战略导向到制度设计,从技术发展到市场转化,从成员国协同到全球规则博弈,欧盟人工智能战略诸多失衡现象既暴露其内部资源与政策的结构性矛盾,也严重制约其战略目标的实现。
一是缺少军事力量支撑。欧盟人工智能战略缺乏运用军事力量支撑的战略设计,呈现出“软规范强、硬实力弱”的结构性缺陷,导致欧盟在应对人工智能作为战略性技术所带来的安全挑战时明显力不从心——既无法通过军事力量或情报系统支撑其治理框架的权威,也难以在全球人工智能治理中发挥有效作用。美国前国务卿亨利·基辛格曾将核武器、网络安全与人工智能并列为具有历史意义的战略性技术,强调这三类技术已深刻嵌入国家安全战略,各国都无法回避其影响。这意味着人工智能不仅是经济技术问题,更关系到军事博弈与国际安全稳定。欧盟当前的人工智能战略主要聚焦于伦理规范、风险控制和人权保护等“软议题”,而忽视了人工智能作为国家核心战略资源所需的统筹布局与军民融合路径。
二是技术治理的“泛安全化”倾向与创新抑制效应。欧盟在人工智能战略上高度强调“安全”与“治理”,这种安全优先的策略体现出一定程度的“泛安全化”倾向,即强调政治对技术的主导,忽视人工智能技术所具有的结构性权力。对快速迭代的战略性技术而言,过度投入安全监管资源会对技术突破产生抑制作用。《人工智能法案》构建的复杂风险管理、数据治理和合规体系,虽旨在确保人工智能系统的可信、安全,但未能充分考虑人工智能技术演化进程的不确定性和迭代创新的速度,其静态的风险分类框架难以适应动态的创新步伐。欧盟目前偏重管控和伦理的思维,虽然在理论层面强化了技术安全,却在实践层面导致核心技术突破与应用转化的滞后。这种以“安全优先”为导向的监管范式,本质上忽视了人工智能作为颠覆性技术的内在发展规律,形成制度创新与技术演进之间的目标错位。
三是产业生态的结构性短板与系统性创新不足。欧盟传统产业优势集中于制造业、能源等领域,对互联网和人工智能等新兴技术产业的支持相对滞后。相较美国硅谷和中国北京中关村、深圳南山等创新集群,欧洲在风险投资生态、商业模式创新和技术商业化等方面存在显著短板。其深层原因在于欧洲资本市场对高风险科技投资持审慎态度,初创企业难以获得规模化融资。此外,欧盟与成员国之间的双重治理结构也在很大程度上制约了欧盟作为一个整体制定产业政策、打造创新生态的能力。因此,尽管欧洲拥有雄厚的科研人才基础和专利储备,但在风险投资、商业模式创新和技术商业化等方面没有形成有竞争力的产业生态。这种“科研强而产业弱”的悖论,折射出欧盟创新体系的结构性失衡。
四是国际合作中的战略自主诉求与现实依赖困境。在人工智能国际合作方面,欧盟战略自主诉求与对美严重依赖现实产生错位。一方面,欧盟倡导“数字主权”理念,力求在全球人工智能治理中发挥主导作用,同时避免对任一大国过度依赖;另一方面,出于地缘政治和安全考量,欧盟的实际政策往往倾向于加入美国主导的“对抗性小圈子”。例如,欧盟支持G7发起的“广岛人工智能进程”等西方联盟倡议,共同推行以“人权、自由、民主”等价值为导向的治理规则。这种阵营化倾向加剧了全球人工智能治理的碎片化趋势,也与欧盟所倡导的多边主义原则产生内在冲突。与此同时,欧盟在与中国开展人工智能合作时,既存在自主性的顾虑,又受制于美国压力,其将技术竞争政治化、工具化的做法,不仅未能提升安全效能,反而破坏了开放合作的国际创新环境。这种战略定位的模糊性,本质上是欧盟在全球科技竞争中自主性与依赖性矛盾的集中体现。
上述失衡反映出欧盟人工智能战略深层次的矛盾根源:一方面有意引领全球治理,另一方面自身技术和产业基础薄弱。在中美两国全力推进技术创新的背景下,欧盟若固守失衡的战略取向,可能进一步削弱自身技术能力,并加剧全球人工智能治理的碎片化态势。
人工智能战略转型下中欧合作的潜力与制约因素
当前,欧盟正处于人工智能战略的关键转型期。在“监管有余、竞争力不足”的背景下,欧盟一方面试图通过《人工智能法案》继续在伦理与规则上主导全球议程,另一方面也意识到自身在企业数量、投资能力和基础设施方面的系统性短板,亟须借助外部合作破局。DeepSeek等中国企业提供的低成本、高效率的新路径为欧盟带来了现实可行的合作契机。面对本土人工智能产业投入不足、算力资源紧张的困境,德国、法国等国开始借鉴DeepSeek的发展路径,重新审视自身技术布局,其“去中心化”与“资源适配”理念,为欧洲探索适合自身禀赋的人工智能发展模式提供了现实样本,也拓展了中欧合作的技术互补空间。具体而言,中欧人工智能合作的前景可从技术研发互补性、可持续发展以及全球治理三个维度进行观察。
第一,在技术研发互补性维度,欧盟与中国形成了鲜明的比较优势。欧盟在基础研究和底层算法上实力雄厚,多年来孕育了诸多人工智能领域的顶尖科学家和创新成果。然而,欧盟的科研优势未能转化为大规模的商业应用和产业竞争力。相比之下,中国在人工智能工程化和规模化应用上独树一帜,中国科技企业具备将模型快速落地迭代的卓越能力,拥有海量的数据资源和应用场景,培育出如DeepSeek这样具备强行业适配性、高场景敏感度与系统级技术集成能力的企业。这种“理论驱动型创新”与“应用驱动型创新”的互补,为双方构建技术共同体奠定了基础,也有利于双方共同提升在全球人工智能治理中的作用。
第二,在可持续发展维度,中欧利益契合度高。无论是欧盟提出的绿色新政,还是中国倡导的创新驱动发展战略,都需要人工智能技术的支持。在医疗健康领域,人工智能可用于新药研发、个性化治疗和公共卫生监测,中欧均有庞大市场和研发机构,合作空间广阔。面对日益严峻的老龄化问题,中欧都希望借助人工智能提升养老服务、医疗护理和社会保障系统的效率。在气候变化和清洁能源领域,双方都致力于实现碳中和目标,优化能源分配、提高工业节能效率。可见,中欧在促进可持续发展上有着广泛共同利益,双方有携手制定更完善国际规则的基础条件。
第三,在全球人工智能治理维度,中欧在坚持多边主义、反对单边工具化治理方面立场相近。当前全球人工智能治理正面临地缘政治博弈带来的诸多干扰。美国倾向于通过“小院高墙”、出口管制等单边措施来主导技术生态。相较之下,中欧都强调通过多边机制来应对人工智能带来的跨国挑战。在维护开放包容的国际治理方面,中欧也有共同诉求,希望通过联合国、G20等平台构建兼顾各方利益的规则体系。这种多边立场的契合为双方合作提供了动力。
尽管如此,欧盟在评估以DeepSeek为代表的中国人工智能企业的技术方案时,仍然存在多重现实顾虑。欧盟人工智能生态系统长期深度嵌入美国主导的技术供应链体系,虽然中国创新型企业的技术突破正在重构全球产业竞争格局,但欧盟决策层在数据隐私合规、国家安全考量和伦理价值观上仍持审慎态度。
首先是数据隐私规范。欧盟以《通用数据保护条例》(GDPR)为核心构建了全球最严格的个人数据保护框架,强调用户隐私和数据本地化存储。任何进入欧洲市场的人工智能产品都必须遵守《通用数据保护条例》等法规要求,欧盟担心像DeepSeek这样的中国模型是否会沿用欧盟的隐私标准,例如在训练数据收集与用户数据处理上做到透明、取得用户同意,并确保欧洲数据不被擅自传输出境。
其次是国家安全考量。欧盟在对华人工智能政策中常陷入“战略自主诉求”与“跨大西洋安全依赖”的结构性矛盾,尤其在技术标准制定、企业审查等领域表现出趋于政治化的风险偏好,导致近年来对中国科技公司的安全审查日趋严格。与此同时,欧洲情报部门和决策者担忧中国企业与政府合作,从而在其产品中留下安全隐患。这一疑虑使欧洲在审视DeepSeek等中国人工智能产品时,不仅从商业角度,更从国家安全角度提高了警惕。
最后是伦理和价值观。欧洲舆论常以中国的“社会信用体系”为例,质疑中国技术产品的伦理取向与欧洲价值观不符。中国的社会信用试点被一些西方媒体抹黑为“大数据极权”的象征,引发欧洲公众对中国将人工智能技术用于社会控制的担忧。欧洲决策者担心,中国研发的大模型若内嵌不符合西方伦理的偏好,将冲击欧洲坚持的伦理准则。这种机遇与制衡的并存,折射出中欧人工智能合作中技术互补性与制度异质性交织的复杂现实。如何在维护欧盟伦理标准的同时充分释放合作潜能,将成为塑造全球人工智能治理格局的重要变量。
中欧人工智能治理合作的路径
鉴于中欧在人工智能治理领域存在显著的共同利益与结构性互补因素,双方具备构建深度协作关系的现实基础与战略必要。通过加强合作,不仅可有效避免数字地缘政治的对抗性恶化,更能为构建开放包容的全球人工智能治理体系注入稳定性力量。中欧合作框架的构建,需从机制对话、标准协调、多边治理、企业合作等多个维度协同推进。
第一, 建立中欧人工智能治理高层对话机制。中欧应探索在数字政策和人工智能治理方面建立制度性交流平台,设立专门的人工智能治理联合工作组。在这一框架下,中欧可以就彼此关切的问题进行坦诚沟通,包括数据保护、算法透明度、人工智能合规认证等具体议题。通过高层对话,双方可就有关问题进行有效磋商,以增进互信。围绕人工智能治理,中欧开辟直接沟通渠道,定期开展政策交流将有助于消除误解、减少疑虑。同时,中欧双方还可鼓励立法机构、监管机构、企业和学术界之间开展互动,推动形成“政策—技术—产业”三位一体的复合对话体系。
第二, 推进人工智能治理标准的对接与联合制定。欧盟《人工智能法案》刚刚落地,中国也在加紧完善算法安全、数据出境、安全评估等规制。中欧应抓住这一契机,在技术标准和治理规则上开展协调。一方面,可鼓励双方标准机构和科研团体加强合作,就人工智能伦理准则、风险分级、测试评估方法等交换意见,努力使各自标准具有兼容性,减少企业两地合规冲突。比如在隐私计算、联邦学习等敏感技术上对接标准,共同提升人工智能在保护用户隐私前提下开发利用的能力。另一方面,中欧可在国际标准化组织(ISO)以及其他全球多边场合提供更多公共产品,联合提出人工智能治理的国际标准,推动全球标准共识的形成,为广大发展中国家提供通行的技术参考架构,打破人工智能治理的“技术门槛壁垒”。双方还可以开展第三方评估体系的互认机制试点,减少企业在中欧市场合规中面临的“双重成本”,提升人工智能产品跨境部署效率,降低人工智能治理的制度性交易成本。
第三, 加强多边场域的合作与立场协调。作为全球治理的重要参与方,中欧有责任引领包容性的全球人工智能治理。双方应携手利用联合国、G20等平台推动构建开放合作的治理模式。在联合国层面,中欧可支持人工智能高级别咨询机构开展工作,确保其在广泛代表性基础上推动包容性治理。双方可在联合国互联网治理论坛、联合国教科文组织等多边组织和机制中持续协作,抵御科技问题政治化对全球治理秩序的冲击。在G20层面,秉持2019年《G20人工智能原则》精神,进一步就人工智能监管沙盒、跨境数据流动规则等议题凝聚共识。在全球科技发展“地缘政治化”趋势日益加剧的背景下,美国通过建立“小圈子”、推广监管标准同盟的方式,正在将人工智能等关键领域治理工具化,全球科技治理体系呈现出阵营化与意识形态化的倾向。中欧作为维护人工智能全球秩序的关键力量,应共同抵制技术治理的阵营化趋势,为世界提供第三种制度选择,推动全球人工智能治理走出“强国制定—他国被动接受”的结构困境。中欧通过多边机制对话加强互信,正是回应这一趋势、避免全球规则碎片化的重要路径。
第四, 构建中欧人工智能企业协作与风险应对机制。除了政府间合作,推动企业间的互信与协作机制建设同样重要。中欧可鼓励人工智能头部企业设立联合研发平台,共享部分训练资源与评估工具,提升模型的跨语境、跨文化适应能力。推动人工智能企业、平台公司与标准制定机构之间的交流,打通政策制定与技术落地之间的实践隔阂。在技术风险共识构建方面,应推动建立中欧共同支持的人工智能风险评估中心,集中开展对大模型、生成式人工智能的伦理评估、安全漏洞测试与误用预警,提升双方对人工智能底层风险的共同认知。这种企业与治理机制的深度嵌合,既可构成中欧合作的制度支点,也可为全球治理提供“国家—企业”协同共治的范例。
总之,欧盟人工智能战略折射出其在全球规则塑造与技术主权维护间的深刻张力。面对新兴大模型技术带来的范式变革,任何单一行为体都难以独立应对人工智能治理的复杂挑战。在中欧建交50周年之际,双方更需秉持合作共赢的理念,在人工智能伦理标准、安全认证、跨境协作等领域构建战略互信。唯有秉持多边主义精神,推动形成“技术包容、规则协调、责任共担”的全球人工智能治理体系,方能有效平衡技术创新与社会风险,实现人工智能时代的可持续发展。这种协作不仅关乎中欧自身的战略利益,更是塑造21世纪全球科技秩序的关键路径。
平台编辑 | 吴小玲
《当代世界》杂志是中共中央对外联络部主管、国内外公开发行的综合性国际政治研究月刊,是深入宣介解读习近平新时代中国特色社会主义思想、习近平外交思想的重要理论阵地;是宣介中国特色大国外交理论与实践特别是党的对外工作创新成果的权威传播载体;是深入研析世界形势、国际格局、政党政治发展变化和变革规律的专业智力汇聚场;是国际社会了解中国特色大国外交政策与实践的重要窗口。本刊入选南京大学中文社会科学引文索引(CSSCI)来源期刊、中国社会科学评价研究院中国人文社会科学期刊AMI综合评价核心期刊,“政党政治和理论”栏目入选中宣部首批哲学社会科学期刊重点专栏。杂志英文刊被评为国家哲学社会科学文献中心“2024年度国内主办最受欢迎英文期刊”。
关注当代世界!
与您分享最权威的国际时政文章!
微信小程序
在线阅读杂志↓
购买杂志
英文刊订阅↓
中国邮政微邮局订阅
【中文刊】18元/期,216元/年
来源:当代世界