迪克·施陶登迈尔 鲍伊帆 译|人工智能责任

摘要:欧洲私法正在经历适应数字化挑战的三个阶段,其中人工智能的自主性和不透明性尤为关键。《人工智能责任指令》和《产品责任指令》的草案均致力于通过调整责任法和产品责任法,以应对人工智能带来的挑战。这两项指令通过保障受害者的知情权和简化证据提供程序,增强了对人工智能应用

欧洲私法正在经历适应数字化挑战的三个阶段,其中人工智能的自主性和不透明性尤为关键。《人工智能责任指令》和《产品责任指令》的草案均致力于通过调整责任法和产品责任法,以应对人工智能带来的挑战。这两项指令通过保障受害者的知情权和简化证据提供程序,增强了对人工智能应用的法律保护。《人工智能责任指令》特别提出了知情权和“可推翻的推定”,减轻了受害者在人工智能相关责任索赔中的举证责任。此外,该指令还涵盖了人工智能系统的操作范围限制以及私人用户的责任问题,旨在保障受害者权益,并促使企业和用户履行其应尽的注意义务。

人工智能的自主性和不透明性引发了对民法进行调整的迫切需求。欧洲委员会提出的两项指令草案目的在于通过调整责任法和产品责任法,以应对人工智能带来的挑战。这些提案旨在保障受害者的知情权,并通过实施可推翻的推定规则来简化证据的提供过程。

一、人工智能对私法的挑战

欧洲私法正经历着适应数字化挑战的三个阶段。第一阶段始于20世纪90年代末,专注于调整电子商务的法律需求。当前,我们正处于第二阶段,这一阶段以响应由新技术推动的商业模式为特点,涵盖了数字内容和服务的分发、智能产品的普及,以及数据经济中新兴的依赖关系。第三阶段的探讨已经开始,其重点之一在于私法如何适应并规范具有自主行动能力的人工智能。

人工智能的两大核心属性——自主性和不透明性——凸显了对私法体系进行调整的必要性,以确保该关键技术的有效利用。

自主性是指先进的人工智能系统,例如运用机器学习技术的系统,其能够在没有人类明确指导或预设的情况下独立进行决策。这些决策可能引发法律上的相关后果,例如造成损害。我们可以预先模拟人工智能在特定情境下的决策行为,如设想一辆全自动驾驶汽车在面对相似交通状况时,理论上会作出相同的选择。然而,实际上不存在完全相同的交通状况:光线条件、天气、路面状况、交通参与者的数量及其速度等变量的细微变化,都可能导致不同的、无法预测的决策结果。

不透明性涉及在复杂人工智能系统中,特别是基于机器学习的系统,我们难以追踪决策过程及其导致损害后果的原因。人工智能本质上是处理数据输入以产生输出结果。虽然我们通常理解其基本工作流程,但详细解释基于机器学习的人工智能如何根据特定数据输入产生特定输出,以及这些输出如何关联到法律问题,是一项极具挑战性的任务。这与那些遵循预设规则的简单人工智能不同,更高级的人工智能能在机器学习过程中自主形成规则。例如,我们能够理解人工智能学会区分猫和狗图像的机制。然而,要确定它为何在特定图像中判定为猫而非狗,这一过程是极其困难的。

随着人工智能技术的迅猛发展,法律行为领域中出现了一种新的行为主体,它能够作出人类难以预测和预先确定的决策。这一变化促使私法体系必须进行相应的调整。在侵权法领域,人工智能的自主性和不透明性给受害方在追求损害赔偿责任时带来了重大挑战。在复杂的人工智能应用系统中,识别可能因不当行为而需承担责任的人类主体极为困难。同样,确定并证明不当行为本身也是一项艰巨的任务。最为重要的是,证明这种不当行为与损害之间的因果关系非常困难。

因此,责任法可能需要进行调整以适应人工智能的特殊性,这包括界定责任主体以及在过失责任和因果关系证明中重新分配举证责任。

二、欧盟委员会针对《人工智能责任指令》的提案

(一)方法论

欧盟委员会提出的《人工智能责任指令》(KI-Haftungs-RL)提案,旨在调整民法,以充分发挥人工智能的潜力,并支持数字经济的转型。该指令致力于提高用户对人工智能的信任度,并增强企业的投资信心,以推动人工智能的广泛应用。在此过程中,提案遵循了委员会发布的《人工智能白皮书》所确立的原则,即确保人工智能应用的受害者获得与传统技术引发的损害相当的法律保护。

该指令的法律政策方向专注于适应人工智能所带来的挑战。它专门针对那些有助于缓解受害者在面对人工智能特性时所遇到的举证困难的方面进行协调。《人工智能责任指令》并未涵盖一般性问题,如过失或因果关系的界定、应赔偿的损害类型以及对证据确信度的具体要求。该指令本身并不设立新的赔偿责任,而是依赖现行法律来解决这些问题。

此外,该指令的方法体现了比例原则。即便在引入了知情权和“可推翻的推定”等新规定的情况下,为实现相关各方利益平衡,这些规定也受到众多条件的限制。这些规定还包含了一些定义尚未明确的法律术语,赋予法院在具体案件中灵活适用的自由裁量权。

该法律政策体现了一种克制的方法论,这在其采取的最低限度协调策略中表现得尤为明显。对于欧盟内部市场而言,这一方法并非最理想的解决方案。原因在于,对于那些跨境交易或利用人工智能技术的产品与服务的企业,它们仍需面对各种不同的法规要求,包括可能超越现有证据便利化措施的举证责任倒置等。即便欧洲议会对协调的要求比委员会的提案更加深入,它也并未倡导对过错责任进行完全的统一化调整。此外,考虑到这仅是欧洲民法中侵权法领域的第二次协调尝试,采取谨慎的最低限度协调策略,实际上增加了其在理事会中获得通过的概率。

(二)适用范围

《人工智能责任指令》第1条第2款明确了其适用范围,覆盖了民法中基于过错而非合同的损害赔偿请求权。该指令对过错责任的限制,如第1条第3款b项所示,并不妨碍依据《产品责任指令》提出的请求权。此外,《人工智能责任指令》第5条第2款2项和解释性说明第31条为将来可能实施的危险责任制度预留了空间。这表明,所有民法下的损害赔偿请求权均纳入了考虑,包括德国法中的公务责任请求权。《人工智能责任指令》进一步扩展了其适用范围,根据《罗马第二条例》(Rom II-VO)的分类,将非基于合同的损害赔偿请求权纳入其中。与此同时,合同法中的损害赔偿请求权不属于欧盟法律的调整范畴,这与《货物销售指令》第3条第6款及其解释性说明第61条的规定,以及《数字内容指令》第3条第10款及其解释性说明第73条的立场保持一致。

《人工智能责任指令》的适用时间范围扩展至指令转化期结束后新发生的损害情形。根据该指令,受益人群不仅包括直接的受害方(根据第2条第6款a项),也涵盖了受害方索赔权的受让人,如保险公司等(同样根据第2条第6款a项)。此外,该指令还包括了根据欧盟法律及成员国法律所规定的集体诉讼程序。

为与《人工智能法案》(Gesetz über künstliche Intelligenz,KIG)保持一致,《人工智能责任指令》采纳了与《人工智能法案》适用范围相一致的术语,例如人工智能系统、高风险人工智能系统、供应商和用户。具体来说,《人工智能责任指令》第2条第1款至第4款直接引用了《人工智能法案》中的定义。在《人工智能法案》中,“用户”一词专指商业和专业用户,而不涵盖消费者。《人工智能责任指令》沿袭了这一定义,但在第4条第6款中为作为受害者的个人提供了特别的规定。

然而,根据《人工智能责任指令》第2条第5款,只有当损害是由人工智能系统造成的,该指令的条款才适用。该指令的解释性说明第15条第2至4句进一步指出,对于某些人工智能系统,如果它们不受人工智能所带来的挑战影响,则可以不适用上述规定。这特别适用于那些仅提供信息或建议的人工智能系统,例如,当这类系统向医生推荐诊断或治疗方案时,如果随后的损害完全归因于人的决策,那么在这种情况下引入因果关系的推定则显得多余。

(三)知情权

《人工智能责任指令》第3条所规定的知情权是该指令的关键辅助措施之一,旨在减轻受害方在面对人工智能特性时的举证难题。该权利使受害方能够获取必要信息,以识别人工智能生态系统中的潜在责任方,并为可能提出的损害赔偿请求收集证据。此外,这一措施还有助于减少不必要的法律程序和相关成本。

1.适用范围

根据《人工智能责任指令》第3条第1款,知情权适用于《人工智能法案》规定的,对高风险人工智能系统负有文件提供义务的所有各方,包括供应商、地位等同于供应商的主体及用户。知情权不局限于被告,任何上述各方均可行使。在诉讼中,原告须先尽一切合理努力从被告处获取证据。

知情权可由主张损害赔偿请求权的请求权人或正在考虑主张的潜在请求权人提出。在复杂的人工智能生态系统中,受害方可能难以从众多的人工智能系统及其背后的行为人中识别出可能的加害方。潜在原告必须首先向相对方请求披露关键证据;但相对方在此过程中有权拒绝。若遭到拒绝,潜在原告必须通过法律途径正式行使其请求权。此外,潜在原告需证明其损害赔偿请求权的合法性。

客观而言,知情权的适用范围限定于高风险人工智能系统。这包括《人工智能法案》已明确规定要求的系统,以及那些虽未在《人工智能法案》第2条第2款中设定具体要求,但预计会在未来的行业特定法规中被规范的系统。

涉及的证据材料必须遵守《人工智能法案》的规定,并由直接相关方所掌握。这些证据材料可能包括与高风险人工智能系统相关的其他信息,前提是这些信息对于知情权的行使者来说是相关且可获得的。

知情权的适用范围被限定在高风险人工智能系统和特定的知情权对象,这样做的目的是防止通过知情权的规定间接为非高风险人工智能系统引入文件记录的义务。

知情权的行使可在实体法或程序法的框架内实现。在欧盟法律中,《卡特尔损害赔偿指令》(Kartellschadensersatz-RL)第5条提供了知情权的一个典型示例,同样,《人工智能责任指令》第3条也以此为参考。

2.证据保全

《人工智能责任指令》第3条第3款规定,法院有权命令采取证据保全措施,以防止可能成为知情权对象的相关数据被删除。只有原告有权申请此类证据保全措施。

3.法院审查

为保障原告与被告的利益,《人工智能责任指令》第3条第4款要求法院在作出决策前,必须先行评估所要求信息的必要性与合比例性。依据该指令的解释性说明第20条第2句所述,“必要性”指的是所需信息对于判决具有关键性的影响。

根据《人工智能责任指令》第3条第4款第2句,合比例性涉及对利益的平衡,特别是考虑到商业秘密与其他敏感信息的保护,这可能包括对公共安全和国家安全的维护。在涉及商业秘密的情形下,法院应依据第3条第4款第3句的规定,在诉讼过程中采取特定的保密措施。

《人工智能责任指令》第3条第4款第4句进一步规定,对于法院的裁决,必须存在法律上的救济途径。各成员国有权决定这些救济手段的选择及其实施方式。然而,仅在法院作出裁决前允许当事人行使陈述权或抗辩权是不足的,因为《人工智能责任指令》第3条第4款第4句第4子项的规定是在法院已下达命令的基础上适用的。

4.可推翻的推定

根据《人工智能责任指令》第3条第5款,若被告未遵循法院发出的信息披露或证据保全的指令,则将适用一项可推翻的推定。据此,法院将假定被告未能证明其已经履行了应有的注意义务,而这一义务的履行本可以通过行使知情权或采取证据保全措施来证实。然而,被告可以通过证明其已充分履行注意义务来推翻此项推定。

(四)可推翻的因果关系推定

《人工智能责任指令》第4条所规定的可推翻的因果关系推定是为减轻受害方举证责任而设的第二项工具。

1.方法论

欧盟委员会选择此工具反映了其法律政策方法中的比例原则。在减轻受害方的举证责任方面有多种选择,包括危险责任、举证责任倒置、不可推翻的推定以及可推翻的推定。委员会经过权衡,选择了对现有法律体系影响最小的方案。

《人工智能责任指令》将因果关系的限制聚焦于侵权人的作为或不作为行为与人工智能的输出之间的联系,这一策略专门针对人工智能带来的挑战。该指令专注于解决系统的不透明性问题,这有助于降低解释人工智能基于特定数据输入产生特定输出并最终导致损害的难度。受害方需要自行证明人工智能系统产出与损害之间的因果关系。

因果关系推定依据《人工智能法案》对三种不同类别的人工智能系统所作的区分而建立。《人工智能法案》的适用范围限定于高风险人工智能系统,但并未对所有高风险人工智能系统设定具体要求,而是将其中一部分系统的具体要求保留给未来行业法规来规定。对于非高风险的人工智能系统,《人工智能法案》并未将其纳入调整范围。对于受害方而言,在责任认定的问题上,无论是由《人工智能法案》规定的高风险人工智能系统造成的损害,还是由行业法规规定的高风险系统或非高风险系统造成的损害,在责任上并无差异。因此,《人工智能责任指令》第4条普遍适用于这三种类型的人工智能系统,尽管在特定情况下,因果关系推定可能会受到不同条件的限制。

2.适用于所有人工智能系统的条件

《人工智能责任指令》第4条第1款的规定适用于所有人工智能系统。根据《人工智能责任指令》第4条第1款a项,原告必须证明被告存在过错,该过错是指违反欧盟法律或国家法律规定的注意义务。

《人工智能责任指令》并未统一过错的定义。4特别是,该指令没有在德语法律领域中对过错与非法性进行区分,也没有在罗马法系中确定一个统一的过错概念。然而,它确实包含了一些关于过错的规定,这些规定并不构成对国家法律的干预,因为它们已在国家法律中有所体现。例如,《人工智能责任指令》将过错定义为过失或故意加害的作为或不作为。它并未明确如何确定构成故意和过失基础的不当行为的标准。相反,《人工智能责任指令》采用了注意义务的概念,并将违反这一义务的行为作为核心焦点。《人工智能责任指令》第2条第9款英文版中的注意义务定义采用了源自《欧洲侵权法原则》第4:101条的“规范行为标准”(required standard of conduct),并指明其具体内容应依据国家法律或欧

盟法律来确定。这揭示了《人工智能责任指令》在处理过错定义时的一个核心特征:它并没有在所有成员国中推行一个统一的过错概念,而是承认并尊重了国家法律或欧盟法律中对过错解释的多样性和自主性。解释性说明第23条第1句和第24条第1至4句涵盖了此类“规范行为标准”的两个法律来源,包括存在于国家法律和欧盟法律中的具体规范,以及构成国家侵权法基础的一般行为规则。解释性说明第24条第2句阐明,后者是关于一个理性人应如何行事原则的不同表述。

正如解释性说明第3条第1句所述,注意义务的定义涵盖了违反义务(“要求”)的作为和不作为,即所谓的“行为”。

这些注意义务关涉国家或欧盟法律所认可的权益,包括生命、身体完整、财产及其他基本权利。

人工智能系统的分类决定了第4条及其后续段落对违反此类义务的讨论。《人工智能责任指令》建立了一套激励机制,确保所有人工智能系统遵守欧盟或国家法律所规定的注意义务,特别是那些衍生自该指令的义务。通过这种方式,该指令促进了侵权法的预防性目标。

此外,违反注意义务的直接目标应是预防损害的发生。这包括那些在特定案件中为防止损害而设定的注意义务。例如,根据解释性说明第22条第6句的确认,不遵守旨在避免人身伤害的产品使用说明,将被视为违反了注意义务。相对地,解释性说明第22条第7句指出,如果供应商未能履行如向相关当局提交文件等行政性义务,这并不被视为违反了注意义务。

然而,欧盟委员会认为,仅通过第4条第1款的一般规定和第4条第1款c项将因果关系推定限制在因果链的一部分是不充分的。此外,欧盟委员会还引入了第4条第1款b项的条件,即根据案件的具体情况,必须合理可能(einigermaβen wahrscheinlich)是过错影响了人工智能系统的输出。正如解释性说明第25条中所举的例子,这里的目的实际上是要排除那些与相关因果关系明显无关的不当行为类型,确保它们不会被包括在可推翻的推定的适用范围内。例如,解释性说明第25条第4句提到了不遵守登记或提交文件的义务,并不能影响人工智能系统的输出。相反,解释性说明第25条第3句举了一个违反注意义务的例子,即未遵守人工智能系统操作范围的限制。如果损害发生在实际预定的操作范围之外,则可以认为这种行为对人工智能系统的输出产生了影响。

《人工智能责任指令》在第4条第1款a项和犮项中明确规定,受害方需承担证明其条件成立的举证责任。根据第3条第5款的规定,法院有权推定过错的存在。为了避免对受害方施加过重的举证负担,第4条第1款犫项的表述与第4条第1款a项和犮项的第2至4句所明确的举证责任分配有所区别,它并未直接将举证责任归咎于受害方。第4条第1款犫项构成了一个客观的适用条件,法院需要基于排除那些明显无关的案件的视角来评估其适用性。

《人工智能法案》仅适用于专业和商业用户,但也可能存在私人用户作为潜在侵权者的责任案件。将私人用户完全排除在因果关系推定的适用范围之外是不合理的。因为相对于受害方,是用户决定使用人工智能系统并因此决定了相应的风险暴露,而受害方往往在违背自己意愿的情况下面临这样的风险。此外,对受害方而言,无论损害是由专业/商业用户还是私人用户造成,在本质上并无差别。然而,应当考虑到,即使是仅进行简单操作如插入电源插头和按下启动按钮的私人用户,也可以合理地信赖该人工智能系统已经根据《人工智能法案》的要求投放市场。因此,《人工智能责任指令》进行了利益权衡,并在第4条第6款中设定了一个额外条件,该条件适用于对潜在私人侵权者适用因果关系推定的情况。只有在私人用户不仅仅限于启动人工智能系统,而是实质性地改变了其运行条件,或者在应当改变而未改变的情况下,才应当推定存在因果关系。根据解释性说明第29条第7句,如果在使用区域的选择上未遵循使用说明书,例如在不平坦的表面上(如鹅卵石路面)使用自主清洁机器人,或者在未设围栏的花园中使用自主割草机,就可能属于前者的情况。后者可能出现在使用条件未根据使用说明书进行适当调整的情况下,例如在恶劣天气下使用自主递送包裹的无人机而未设置为必要的恶劣天气模式。第29条的最后一句也对此进行了阐释,明确指出根据《人工智能法案》,分销商在确定使用条件时有义务考量预期用户的知识和专业技能,因此可以合理期待私人用户将遵守使用说明书等。

3.受《人工智能法案》监管的高风险人工智能系统的条件

《人工智能责任指令》第4条第2款和第3款涉及对高风险人工智能系统的提供者、具有同等地位的个人以及用户适用因果关系推定的情形,并规定了他们应遵守的特定义务。

与第4条第1款a项相较而言,第4条第2款作出了特别规定。高风险人工智能系统的提供者和具有同等地位的个人只有在违反了第4条第2款规定的义务时,才会满足第4条第1款a项的条件。受害方有责任证明这种违反行为,如果他们无法做到这一点,根据法律规定,可以推定不存在违反注意义务的行为。这样的规定旨在使高风险人工智能系统的提供者确信,只要他们履行了《人工智能法案》规定的义务,就不会自动被推定存在因果关系。然而,这并不排除他们因违反其他未被《人工智能法案》特别规定的注意义务而可能面临的损害赔偿责任。

《人工智能责任指令》第4条第2款提及了《人工智能法案》规定的义务。具体而言,第4条第2款a项涉及的情况是,培训、验证或测试数据集不符合《人工智能法案》第10条第2至4款规定的质量要求,例如,如果这些数据集包含因性别或种族而产生的偏差,可能会导致贷款被拒绝。第4条第2款犫项涉及《人工智能法案》第13条关于透明度和向用户提供信息的义务,尤其是使用说明的要求,这可能对潜在的损害赔偿请求尤为重要。第4条第2款犮项提及《人工智能法案》第14条关于设计和开发人工智能系统的义务,以便它可以被人有效地监督。第4条第2款犱项涉及《人工智能法案》第15条对精确度、稳健性和网络安全的要求。最后,第4条第2款犲项包括根据《人工智能法案》第21条采取必要纠正措施的义务。

与第4条第2款不同,第4条第3款在适用所列注意义务的推定时没有类似的限制。这是因为根据《人工智能法案》第29条第2款的规定,用户除了遵守《人工智能法案》规定的义务外,还可能需要履行欧盟法律或国家法律规定的其他注意义务。

根据《人工智能责任指令》第4条第4款,被告可以提供证据证明原告在合理的条件下能够获得充分的证据材料和专业知识,以证明因果关系。如果被告成功提供了这样的证据,法院不应再适用因果关系推定规则。这将在被告根据原告的请求提供了所需的信息后成为可能。因此,《人工智能责任指令》第4条第4款同时为被告提供了额外的激励,以全面响应原告的此类信息请求。

4.不受《人工智能法案》监管的高风险人工智能系统的条件

对于不受《人工智能法案》监管的高风险人工智能系统,第4条第1款a项所指的违反注意义务可能涉及欧盟法律或国家法律设定的任何注意义务。

解释性说明第23条第1句对欧盟法律中的注意义务进行了阐释。这可能包括未来欧盟法律中的行业规定,这些规定可能涉及《人工智能法案》定义的高风险人工智能系统。然而,根据《人工智能法案》第2条第2款,这些系统并未包含在《人工智能法案》的实质性要求之中。此外,还可能涵盖欧盟法律中不依赖于特定技术、同样适用于人工智能的注意义务,例如无人驾驶飞行器的规则。至于国家法律规定的注意义务,则在解释性说明第24条第1至4句中有所提及。这涵盖了构成国家侵权法基础的一般行为规则。此外,这些规则还可能包括成员国根据《人工智能法案》第29条第2款为用户制定的特别规定,或者是与技术无关、普遍适用于人工智能的要求,如交通规则。

在这种情况下,同样可以适用《人工智能责任指令》第4条第4款中关于排除因果关系推定的规定。

5.非高风险人工智能系统的条件

对于非高风险人工智能系统,根据《人工智能责任指令》第4条第1款a项,涉及的是违反欧盟法律或国家法律规定的注意义务。

然而,依据《人工智能责任指令》第4条第5款的规定,因果关系推定仅在法院认定受害方证明因果关系面临不合理的困难时才适用。根据解释性说明第28条第2句,如果非高风险人工智能系统具有自主性和不透明性,可能导致受害方在证明因果关系上遇到困难。在这些情况下,受害方需要阐明这类人工智能系统的内部工作机制。

这也是为什么——与第4条第1款a、犮项,以及第4条第2款、第3款和第4款中明确规定的举证责任分配不同,但与第4条第1款犫项相同—第4条第6款和解释性说明第28条第3至4句规定,不应将因举证过程过于困难而产生的举证责任强加于受害方。解释性说明第28条第4句提出的理由是,不应要求受害方去解释自主和不透明人工智能系统的特性,或者证明这些特性在多大程度上增加了确定因果关系的难度。与第4条第1款犫项一样,这是一个由法院来确认或驳回的客观适用条件。在实践中,这可能会导致对这一条款的宽泛解释。

6.可推翻的推定

根据《人工智能责任指令》第4条第7款,因果关系推定是可以被推翻的。根据解释性说明第30条,被告必须能够提供证据证明其已经履行了应有的注意义务,并且这种履行并未导致损害的发生,从而推翻因果关系推定。除此之外,被告还有权提出其他潜在的因果关系路径。

三、欧盟委员会关于修订《产品责任指令》提案中的人工智能

(一)与《人工智能责任指令》的关系

《产品责任指令》(Produkthaftungs-RL)的修订工作与《人工智能责任指令》采取了不同的方法。《产品责任指令》的修订旨在更新1985年版《产品责任指令》,以适应数字化的全面发展趋势,并对人工智能领域所特有的挑战进行规范。两项指令在适用范围上有所重叠,特别是在由人工智能技术装备的产品引起的、向生产商提出的损害赔偿请求权方面。在这一领域中,只要满足既定条件,这两项指令均可适用。即便面临人工智能带来的挑战,这也确保了受害者现有的保护水平,允许他们继续在基于产品责任和基于侵权的生产者责任的赔偿请求权之间作出选择。

《产品责任指令》与《人工智能责任指令》之间的联系体现在两者都采用了相同的机制来提升受害者的权益,例如知情权和可推翻的推定等工具。

(二)知情权

《产品责任指令》修订草案第8条中规定的知情权,与《人工智能责任指令》相同,目的在于降低受害方在举证过程中的难度。这一规定不仅针对人工智能领域的特有挑战,也适用于其他类型的复杂产品。在结构上,该条款与《人工智能责任指令》相似,特别是在第2至4款中,均明确了必要性和合比例性的条件,并在审查合比例性时进行了利益平衡,特别是在商业秘密的保护方面。

然而,与《人工智能责任指令》相比,《产品责任指令》第8条第1款所规定的知情权仅限于原告,而不扩展至潜在原告。这是因为在针对生产者提起的产品责任诉讼中,通常可以明确地确定责任方;而在基于过错的索赔案件中,例如智能家居造成的损害,可能会涉及多个潜在的侵权人。

此外,《产品责任指令》第8条并未包含法院下令采取证据保全措施的规定。考虑到《人工智能责任指令》中涉及的证据通常为数字形式,容易遭到删除或更改,而《产品责任指令》涉及的情况可能有所不同,因此,是否制定此类规定被留给成员国的法律来决定。

(三)缺陷与可推翻的因果关系推定

欧盟委员会在其提案中保留了《产品责任指令》的现有做法,即由受害方承担举证责任。为缓解受害方的举证负担,提案引入了可推翻的推定机制。

1.缺陷推定

在《产品责任指令》的责任体系中,缺陷标准取代了基于过错责任的过错标准。因此,《产品责任指令》第9条第2款a项和第5款——与《人工智能责任指令》第3条第5款关于未履行注意义务的规定相一致——规定了缺陷的可推翻推定。

2.因果关系推定

《产品责任指令》第9条第4款引入了因果关系推定,目的在于降低受害方在应对人工智能带来的特定挑战时的举证难度。虽然因果关系推定的条件在表述上因适用范围的不同而与《人工智能责任指令》第4条的规定略有区别,但在功能上两者基本相同。

《产品责任指令》第9条第4款将“因技术或科学复杂性导致的过度困难”作为首要条件。这一条件虽然主要适用于配备人工智能的产品,但其应用并不局限于此,这一点从对机器学习技术的引用以及解释人工智能系统工作原理的必要性中可以明显看出。在《人工智能责任指令》第4条第5款中,这一条件仅针对非高风险人工智能系统,因为在高风险人工智能系统的情况下,该指令通常假定存在技术或科学的复杂性,从而认定存在过度的举证困难。与《人工智能责任指令》第4条第5款相似,基于相同的理由,《产品责任指令》第9条第4款也没有将举证责任强加于受害方。

《产品责任指令》第9条第4款a项确立了产品促成损害的条件,其目的与《人工智能责任指令》第4条第1款c项相同,即证明产品构成了因果关系链的一部分。在《人工智能责任指令》第4条第1款b项与《产品责任指令》第9条第1款b项之间,存在着细微但关键的差异。后者规定了缺陷引起损害的可能性,前者则规定,只要违反注意义务对人工智能系统输出的影响具有相当性即可。因此,在人工智能相关案件中,采取了对受害方较为有利的方法,这在适用可推翻推定时排除了那些与因果关系明显无关的不当行为。

四、总结与展望

《人工智能责任指令》与《产品责任指令》这两份草案共同标志着欧洲私法为响应数字经济的需求而迈入其第三次适应阶段,其中前者尤甚。为了最大限度地发挥自主人工智能技术的潜力,同时有效降低相关风险,首先关注侵权法领域是明智的选择。第一步是谨慎地赋予知情权,以及通过可推翻的推定规则减轻举证责任;在必要时,可能还需引入危险责任。为了充分利用人工智能开启的新商业模式,第二步可能需要考虑涉及合同法的人工智能自主订立合同问题。

来源:上海市法学会一点号

相关推荐