摘要:随着人工智能技术不断推陈出新,其新技术在社会中的应用导致面临的问题与过去截然不同。问责制、主体责任制思维中的归因不足与过度归因在现今人工智能发展的阶段显得效用不足,而过早地以责任制思维主导监管规范建设,有阻碍人工智能发展的可能性。在促进人工智能的发展过程中应当
随着人工智能技术不断推陈出新,其新技术在社会中的应用导致面临的问题与过去截然不同。问责制、主体责任制思维中的归因不足与过度归因在现今人工智能发展的阶段显得效用不足,而过早地以责任制思维主导监管规范建设,有阻碍人工智能发展的可能性。在促进人工智能的发展过程中应当从技术的发展特征出发,以灵活的监管框架建设为核心,利用透明度报告制度、可解释性技术标准等多重监管手段实现有效监管。以此,解决当前人工智能发展过程中阶段特征导致的监管困境。
一、人工智能发展与监管之间的矛盾
(一)人工智能可解释性局限带来的监管困境
随着生成式人工智能为代表的技术革新,以及依神经科学构建机器人意识的可能性,人工智能未来所面临的问题将会与过去截然不同。而技术发展太快使得监管机构来不及对新技术进行充分应对,使得监管过程中出现了很多问题。
首先,可解释性局限使得责任归属困难,难以制定统一的监管标准。造成可解释性局限的重要原因在于前沿的人工智能现阶段依赖于深度学习等高度非线性的模型,其内部逻辑不明晰,设计人员也只能就系统进行部分预测。人工智能的前沿技术往往很难予以解释,使得监管机构无法制定有效的监管政策。虽可以通过牺牲模型性能的方式来提高解释性,但这终究不是未来技术发展所追求的方向。同时,现代的法律法规政策的责任认定基本是以行动者的控制力为基础的过错责任模式,而现有的深度学习模式的人工智能系统可解释性有限,部署人员及设计人员对其控制力有限,系统发布之后由于与外部环境、人员的交互导致的系统的变化使得设计部署人对其控制力更进一步下降。例如,电子自动交易市场价值的“闪电崩盘(flash crashes)”或由于算法交互(algorithmic interaction)而导致的价格突然飙升或崩溃等事件在很大程度上仍然无法归因。在这类因技术发展过程中的无法归因的事件并非罕见。此外,除了溯源难这样的可解释性局限,“幻觉”亦是不受开发部署者控制的有碍人工智能技术可解释性的重要问题。这些可解释性的局限使得因人工智能造成的危险无法归责于任何一方,如果监管将这些责任强加给开发人或者部署人,都将阻碍技术的发展与进步。而如果仅由终端使用者承担损失,将会导致人工智能无法取得人们的普遍信任,不利于人工智能在社会中的应用。这就是导致监管困境的重要原因。
此外,解释性的局限还带来了监管中的执行困难。一个重要方面是以自然语言编制的社会规则转化为编程语言时的差异以及机器学习转化过程中的差异问题,自然语言到正式的编程语言之间亦有很大的差异,自然语言通常具有含糊性而编程语言非常精确。虽然在算法过程中开发人员可以尽力保持机器语言与社会规则的一致,并努力消除数据获取方面的歧视与偏差,但是人工智能所学习到的东西并非完全在可控范围之内。从自然语言到编程语言的转换,必须将以自然语言表达的法律及其模糊性和含糊性转换为精确的指令集。而这些转化的过程中哪怕技术人员兼具应用领域与计算机领域的知识依旧会有偏差。这一系列问题,都非当前技术层面可解决,亦是现有人工智能系统解释性不足的重要展现。在这样的自然语言与机器语言的差异之下,即使将监管规范融入人工智能的技术标准中,亦存在将监管规范纳入技术标准的过程中,无法保障监管的准确与效果。
(二)跨领域监管的挑战
人工智能在社会中的应用十分广泛,从人们日常生活人工智能应用到政府管理人工智能应用,从居家智能设备到航天、军事设备,已经深透所有领域,成为所有领域的重要助力。在过去,各领域之间相对隔离,监管也相对容易。但因为人工智能的应用,使得人工智能的监管需要兼具多领域的知识与技术。例如,在医疗领域,智能诊断系统能够辅助医生进行疾病诊断,并在健康管理、远程医疗等方面展现出巨大潜力,极大地提高了医疗服务的效率和质量。但是,医疗领域的人工智能同时涉及隐私权保护、诊疗的准确性保障、计算机技术的要求。这就使得医疗领域的人工智能监管需要根据法律、医疗、计算机领域的基本知识,方可在监管过程中保障最基本的可靠性、安全性、公平性。同时,在医疗领域的人工智能还涉及脑机接口、具身机器人等先进技术,监管的过程还必须考虑到基本的伦理保护,涉及哲学、医学的学科交叉,提升了监管政策制定的难度。
人工智能技术的广泛应用,使得监管政策不能仅将人工智能作为一项技术对待,而需要针对其应用的具体场景,制定符合具体场景的监管政策和标准。总之,人工智能技术正在深刻地改变着社会的各个领域,为人类带来更加便捷、高效和智能的生活方式。随着技术的不断进步,人工智能的应用前景将更加广阔,为社会的发展注入新的动力。
二、问责制、主体责任制监管模式的局限性与变革需求
面对人工智能所引发的问题,过去对于行业的以法律为核心的监管模式已然无法发挥良好的监管作用,对于计算机领域,传统的监管模式以计算机产品责任、侵权责任为核心。但是因为人工智能的可解释性局限,使得计算机产品责任、侵权责任这样的问责制监管模式无法良好地解决责任归属问题,使得监管失效。以深度学习、神经网络为代表的技术受可预测性限制导致严格的赔偿责任形式产品责任模式、侵权责任遭受挑战。虽也有提出以主客体论为基础的以责任制为核心的监管模式可以解决一定的责任归属困境问题,但这种以责任制为基础的思想更适合于一个已然有一定发展基础的领域,可对其产生的损害进行分析,以明确的责任进行规制。
(一)问责制监管模式在人工智能监管中的难度
人工智能的未知面使得法律对责任的处理变得非常复杂,因为人工智能系统一旦部署,最终会与其他人工智能系统以及外部环境(包括人类等)相互作用,而外部环境往往背离理性、可预测的行为。无法归因的事件非常常见,而简单以产品责任、侵权责任这类责任制思维对部署者或平台方追责显然无法解决技术发展过程中的各类无因事件,单就责任追究这样的思路去规制亦显然有碍于技术进步的推动。此外,以深度学习为代表的人工智能前沿技术,其基础是高度非线性经验函数,解释性差,而当前正处于可解释模型构建期,渐进式的规范框架构建更适合人工智能技术的发展阶段,既有利于技术发展的进步,又尽可能地发现技术发展过程中的存在的问题,并及时纠正予以规范。
生成式人工智能系统提供服务的模式与传统计算机软件已然完全不同,其颠覆了传统计算机软件系统产品质量责任的严格责任的归责模式。而产品责任则立足于传统弱人工智能软件系统,过多地强调了部署者、管理者等人的责任,忽视了技术发展阶段性问题以及系统与用户、环境交互的问题。人工智能系统在产品责任下,包括欧洲在内的立法建议主要是为了解决举证问题,将举证责任转嫁被告方并由法院就是否有过错进行认定,并以证据公开制度和缺陷推定制度缓解原告举证压力,然而这会导致司法成本的提高以及责任的承担突破合同相对方的范畴,潜在的责任风险巨大。归因过度不利于人工智能的未来发展之路,会导致因监管的需求,业界更倾向于选择准确性低但可解释性较强的系统,不愿部署使用更好技术的人工智能系统。侵权责任的路径相对于产品责任来说,更为灵活,但以过错责任为基础的侵权责任无法在可解释性差的现阶段言明过错在于何处。此外,人工智能系统远不止在民事领域的应用,其可渗入生活的方方面面,还包括立法、司法、行政等领域,此不是侵权责任即可完全囊括的。
(二)主体责任制监管模式困境
人工智能主体论亦有其局限性。虽然赋予机器人法律虚构的人格从技术上来说并没有任何障碍,借鉴已然成熟的法人制度,新西兰宣布Urewera土地为法人,使得新的主体成为法律上的拟制人没有任何理论上的壁垒。但是,人工智能的快速发展,包括具身人工智能在内的人工智能,并不单单只是人工智能本体能否具有主体地位这么简单的问题,甚至包括了人工智能对人的主体自由意志的影响,从而完全挑战了过去的责任分配模式。同时,人工智能主体论还会引发伦理挑战,对社会的影响估量不是简单一句跳出人类中心主义的圈子那么简单。此外,主体责任思路提出人工智能的自由准责任财产、监管人与人工智能的二元侵权模式,但其论证的基础在于认为人工智能主体智慧水平尚低、能力不完备,可设立监管人与人工智能分享权责。虽其也强调了人工智能的发展过程中机器“意识”构建的可能性,但是也会因过于强调人工智能系统主体地位而对开发部署者的归因不足,导致责任分配不均,不利于使用者的保护。而不论是阶段性特征导致的责任归属困境还是未来发展不确定性导致的责任限制的僵硬性,不利于动态地对各阶段各领域新发生的问题进行调整。此外,在人工智能长足进步的今天,以生成式人工智能为代表的人工智能可能会发生的问题远没有充分暴露出来。简单以主体责任模式,过于急切地对责任进行归拢,不仅不能解决未来尚未发生的问题,而可能阻碍人工智能前进的脚步。
(三)监管模式的变革与创新需求
人工智能除了ChatGPT这样改变文字生成模式,提升日常生活便利性的基本好处之外,人工智能还能为开发者、政府、用户带来众多额外的好处,人工智能在现阶段已经成为未来各国所追求的重要核心竞争领域,并被政府视为全球影响力的关键组成部分。而且人工智能常常出现在决策领域,虽然人工智能还是新兴事物,很难在决策上发挥关键的作用,亦不太可能造成实质性伤害,同时,人工智能的监管不仅需要考虑挑战,而且需要立足人工智能所带来的好处,在广泛的技术、行业监督、政府监管的共同努力下促进的技术的创新与进步。以问责制为代表的监管思想多以产品责任、侵权责任为主导回顾人工智能系统,并以结果为思维导向平衡责任分配。然而,许多人工智能系统都是动态而非静态的,其系统应用会随着新数据、新用途而改变,其亦不是由单个组织生产的,而是涉及采购、外包、重用来自各种来源的数据等复杂的网络,这改变了谁在范围内,谁应该对人工智能生命周期的不同部分负责的问题。这也给人工智能在其整个生命周期中的监管带来了全新的挑战,而这些都不是僵化的问责制思路所能解决的现实问题。跳脱出传统责任归属的思路,以将重心放在监管框架的架设上,为人工智能的和谐发展铺平道路,待可能出现的问题充分暴露之后再行责任的重构,此不失为现阶段更适宜人工智能推进之路。同时,英国就人工智能的影响发布分析报告,其中通过定量分析表明,如果监管能够增加消费者的信任度,可以大大降低人工智能的监管成本。支持创新,过早以问责制思想进行立法反而会带来企业的负担,不利于人工智能发展。以灵活可调整的监管框架,在人工智能的全生命周期中不断提供支持,助力可信任的人工智能系统的进步,不仅可以支持创新,亦可增加消费者的信任度,使我国始终立足于国际人工智能的前沿地位。
三、人工智能监管体系搭建
(一)构建灵活的监管框架建设
人工智能飞速发展的今天,针对人工智能建立完备的监管规范几乎很难实现,也不符合人工智能技术的阶段特征,所以各国对人工智能的监管都只停留在相对原则的要求层面。而具体的监管规范则通过监管沙盒予以实验,以达到控制风险的目的。欧盟人工智能法案支持创新措施章节明确以人工智能监管沙盒模式对人工智能进行监管。其要求成员国为建立人工智能监管沙盒提供一个真实的、可控、促进创新的环境,以满足人工智能企业在监管沙盒中获得一个良好的测试环境。同时,成员国还需要在人工智能监管沙盒提供技术支持与指导,以保障有关安全的措施得到有效实施。而我们通过对监管沙盒的研究发现,其核心在于为企业提供一个与监管机构合作的机会,以保障企业能够规避风险的同时降低监管的成本,不用大量的监管规范构建即可实现监管的目的。我国也不例外,在人工智能的监管框架搭建的过程中,应当秉持灵活可变的原则,以适应人工智能不断发展变化的问题与挑战。由于人工智能的特征使得监管的权力核心不断地从政府分散至企业,原则化且包容性强的监管框架可容纳更多的监管思维、监管主体、监管手段,对于监管体系的运行更有助益。
(二)全球化的框架策略
任何国家开发的系统都有可能带来一个全球化的应用,这使得我们的人工智能监管需要一个适应全球化的局势,而这必然要求我们采用一个灵活的监管模式,才能在不断变化发展的技术标准中立足。人工智能严峻的结构性挑战包括:信息不对称、难寻求规范性共识、政府不匹配等问题。这更需要我们以开放灵活的分阶式监管框架,寻求政府间与非政府间、自上而下与自下而上的阶段性的监管协作。同时,鼓励企业参与到国际标准的制定中去不仅保障我国企业与公民的利益,更是促进人工智能的国际合作并保持特定技术的全球一致性与可互操作,以保证我国始终能在这场全球的人工智能的创新发展中提供坚实的土壤。
四、具体的监管规范构建
(一)透明度与评估规范建设
人工智能作为发展中的技术无法像已经成熟的行业一样拥有标准化的监测方式,并出具检验报告,但是人工智能监管仍可就人工智能模型依照其技术标准与应用领域进行评估,并发布公示报告保障透明度。虽然在当下无法做到成熟检测,但这些公示报告的发布,对于工程师、企业、用户、政策制定者、其他受影响的人及组织都会大有裨益。工程师和企业可以及时发现问题并及时修正,用户和受影响的群体可以更好地了解人工智能系统的工作原理以寻求补救措施,促进前瞻性的系统模型分析技术的采用。
首先,在此基础之上,应当先构建人工智能系统的评估标准。而评估系统的建设应当分两步走。一步是以技术为核心的一致性、共同性的人工智能技术规范标准。在评估标准的建设过程中,应当发挥政府的中心作用,协调跨部门跨领域的协作,在特定监管机构的领导下,及时识别已经部署的系统风险并对风险评级,指导评估标准的框架建立,并提出相应的建议,便于企业及时将风险框架纳入自我评估的方法中去。同时,政府仍应当资助第三方机构、平台的建设与发展,为人工智能后期的第三方全流程评估提供支持。另一步是以行业为核心对行业的评估要求。人工智能在不同的行业适用,会因为各行业的特殊性而需要特定的评估信息、特定的披露信息。如医疗行业的人工智能机器人,医疗设施从半智能到全智能的过程中,逐步需要对其行为继续与否、是否给药、何时给药予以决定,甚至评估过程需要详尽地考虑患者加入的设计审查,以保障其利益。而金融领域人工智能的评估与透明化监管要求则须受制于一系列法律框架的约束,包括数据、个人隐私、金融监管等约束。除去医疗、金融、驾驶、军用等特定领域,普通行业面对特定人群时,评估方式和透明度监管亦不相同。如面对不同年龄阶段儿童的人工智能玩具、针对学生群体学习辅助的人工智能等等,亦有其特殊的要求需要在评估和透明度的监管中体现。
其次,可以通过构建模型卡、报告制度等得以保证监管的效果。虽然可解释性局限使得当前人工智能的监管出现困难,但是,我们仍可以透明度为当前核心手段,为后续良性的监管打下基础。建立人工智能公示报告可以作为提高透明度的一种重要方法。其中公示报告可包含人工智能所采纳的技术标准、评估结论以及可引发的风险等,以方便各方查阅并作出应对之策。除了公示报告支持透明度之外,定期的使用报告制度对于透明度的建议亦有重要意义。
(二)可解释的技术规范建设
首先,构建与行业无关的一致性、共同性人工智能技术标准。模型的可解释性技术要求根据所使用的不同技术,应该有不同的可解释性要求。人工智能远不止目前大火的ChatGPT这一种类型的模型,人工智能这一概念还包括了深度学习与机器学习两大分支。深度学习技术就是目前人工智能更为成熟的路线,在深度学习技术下以模仿大脑神经元的神经网络最为“智能”,此前技术方向包括了面对图像任务的卷积神经网络技术与面对语言任务的循环神经网络技术,而ChatGPT区别于前述的卷积与循环神经网络技术是以神经网络基础结构为基础的更为复杂的“自注意力”结构。以transformer为基础开发的ChatGPT作为大模型的开端,已然不同于此前的技术,其可解释性的技术要求当然与卷积、循环神经网络技术不同,更是区别于机器学习中的经典决策树、支持向量机、随机森林等技术。而随着技术的进步,未来人工智能系统不可能仅局限现有的技术的应用,而现在ChatGPT这样的大预言模型,几年之后可能就会成为小模型,未来的模型必然还会出现新的技术,也可能是多个技术的结合。而人工智能系统的可解释性技术要求,需基于不同的技术路径进行规范,方才能更好地提高人工智能的可解释性。国际上,已有的可解释性人工智能的技术规范包括ISO/IEC23053:2022《运用机器学习的人工智能系统框架》和ISO/IEC TR 24029:2021《神经网络的鲁棒性评估》等正是针对不同技术制定的不同可解释性规范要求。在不同的技术要求下,针对不同的技术路径鼓励以行业组织或者基金会为牵头,编制相应技术的可解释性规范,并鼓励相应企业积极响应。政府可以政策性指导为中心,在监管职权范围内提供一致性的与行业无关的标准,这些标准可以应用于人工智能,用以支持跨部门原则的实施。例如,管理系统、风险管理和质量标准可以为行业提供开发可解释人工智能系统的良好实践,并鼓励企业在开发人工智能系统时采用这些标准。
其次,构建针对特定风险、特定人群的额外标准。可解释性需要针对不同领域的要求以及针对的群体,就其可解释性创建相应的方法。为了使这些治理实践适应人工智能在特定背景下带来的特定风险,需要考虑鼓励采用额外的标准来解决特定问题。这些标准将作为行业遵守特定人工智能监管原则的工具,并通过针对特定行业的指导来补充这些标准,特别是重点行业,如医疗行业的人工智能,保护患者和公众是其监管的核心,人工智能作为医疗设备要求这些设备是在可接受的安全范围内并按预期运行的。政策决策、教育、驾驶等重点领域关涉社会与个人最核心的利益,相较于一般领域,如搜索引擎、游戏、购物等,其可解释性要求当然高,故而针对重点领域的可解释性指导标准需要专门的补充与指导。例如,在人工智能模型以自动化方式用于拒绝人们面试、保释、贷款、医疗保健计划或住房的情况下,法律法规绝对应该要求对这些决定进行因果解释,以确保它们是公平的。此外,面对不同群体的需求,可解释性的要求不同。面对工程师,可解释性要求即是如前述的模型技术层面的工作方式。此外,可解释性在面对用户时,还包括了因果的可解释性,与原因有关模型输入产生模型输出,以及信任诱导的可解释性,提供人们信任模型并自信地部署模型所需的信息。所以,当人们谈论可解释性时,需要区分不同的群体。
(三)认证体系建设
人工智能监管最有效的措施,仍然是以政府或第三方为核心的平台对人工智能系统进行质检,以符合人们对人工智能的监管的最终要求。而最终走向以政府机构或第三方认证为主的认证标准体系,亦是所有行业、领域走向完备之后的必然阶段。通过人工智能的监管实验获得的经验,并以技术标准为支撑,将人工智能的系统风险控制在可掌控的范围之内。未来人工智能的认证不仅包含系统技术的评估与认证,还包括潜在的风险控制。这包括两个维度,一是涉及人工智能产品及其运行所造成的人身和财产损害;二是包括歧视、侵犯隐私等基本权利风险。人工智能认证体系可以在技术层面实现这些风险的有效管控。
综上所述,通过建立灵活的监管框架,并依评估报告、可解释性技术标准实现人工智能的基本监管,最终当人工智能发展到一定阶段之后,再以统一的认证标准体系,确保人工智能技术的健康发展,造福人类社会。
来源:上海市法学会一点号