候曼曼|诊疗式人工智能的医疗产品责任认定

360影视 欧美动漫 2025-05-31 09:00 2

摘要:在人工智能“服务—产品”二元框架下,诊疗式人工智能不论是否依托物质载体,均属产品责任法中的“产品”。诊疗式人工智能致害锚定产品责任体系符合矫正正义和分配正义的要求。在责任成立层面,研发者、生产者和销售者违反注意义务的行为可作为产品缺陷的判定因素;诊疗式人工智能

在人工智能“服务—产品”二元框架下,诊疗式人工智能不论是否依托物质载体,均属产品责任法中的“产品”。诊疗式人工智能致害锚定产品责任体系符合矫正正义和分配正义的要求。在责任成立层面,研发者、生产者和销售者违反注意义务的行为可作为产品缺陷的判定因素;诊疗式人工智能致害因果关系的判断应区分风险增加的可能性与实质性,前者是事实因果关系的判断标准,后者是法律因果关系中融入价值判断的通道。诊疗式人工智能产品缺陷引发的风险是否超出生产者等主体可预见范围应结合法定义务违反、人工智能自主性和医务人员介入行为分析。事实推定规则可以缓解人工智能技术引发的产品缺陷与因果关系证明困境。在责任承担层面,专业中间人规则并非当然免除诊疗式人工智能生产者和销售者的责任,医疗机构以及医疗器械的注册人、备案人亦为医疗产品责任主体。直接责任主体对外承担连带责任后可向有过错的最终责任主体追偿。

一、问题的提出

人工智能是新一轮科技革命和产业变革的核心力量,技术变革引发的潜在侵权风险需在法律上予以回应。我国多地医院已部署DeepSeek人工智能大模型以优化疾病诊疗效果,但这一行为也增加了新兴科技造成患者损害的风险。例如,肺结节CT影像辅助检测软件,可能误将血管标注为肺结节,或者对标注的肺结节恶性概率估算错误。又如,在英国首例机器人辅助心瓣修复手术中,机器人突然“暴走”并发出刺耳声响,戳破患者的主动脉导致患者大出血。再如,IBM公司的沃森(Watson)辅助诊断系统将一名患者的病症误诊为罕见的癌症类型,并给予不正确的治疗建议,导致该患者经受不必要的手术。

人工智能系统存在算法黑箱且输出结果具有不可预测性,即使诊疗式人工智能的开发者采取了风险预防措施,仍有可能在实际的运行中出现难以预料的风险并造成患者损害。为从立法层面应对人工智能时代变革,《国务院2025年度立法工作计划》指出,推进人工智能健康发展立法工作。中国社会科学院法学研究所牵头起草的《人工智能示范法3.0(专家建议稿)》第80条规定了人工智能侵权的民事责任,中国政法大学等高校学者撰写的《人工智能法(学者建议稿)》第88条规定了人工智能缺陷致害与产品责任的协调机制。但是,如何从解释论角度分析医疗人工智能侵权的责任成立及责任承担问题,助推《民法典》《产品质量法》在人工智能侵权领域的衔接适用,仍有待进一步研究。基于此,以下问题亟须解决:

其一,诊疗式人工智能致害如何锚定责任体系?在人工智能“产品—服务”二元框架下,学界对于诊疗式人工智能的性质界定呈现“产品说”和“服务说”争议,进而导致诊疗式人工智能致害适用产品责任还是一般过错责任存在争议。不同归责体系直接涉及责任认定的规范适用问题。本文拟从产品与服务的区分以及产品责任法立法目的角度证成诊疗式人工智能致害适用产品责任评价体系。

其二,诊疗式人工智能致害责任成立要件如何确定?较之传统医疗设备,诊疗式人工智能的特殊性在于借助算法提供诊疗建议。面对新兴科技,判断产品缺陷的“技术性标准”具有滞后性,“消费者合理期待标准”和“风险—效用标准”作为产品“不合理危险”判断标准亦存在适用困境,产品缺陷判定难题该如何化解?人机协同致害因果关系具有复杂性,该如何确定产品缺陷与损害结果之间因果关系的认定标准?

其三,诊疗式人工智能致害的责任如何承担?学界对于承担医疗产品责任的主体范围存在争议,有观点认为专业中间人规则阻断了诊疗式人工智能生产者和销售者的责任;也有观点认为应当废止最近规则,医疗机构不应作为直接的责任主体。如何结合我国现有规范及实践,分析诊疗式人工智能致害医疗产品责任主体范围及责任承担问题?

二、诊疗式人工智能致害适用医疗产品责任的证成

在人工智能“产品—服务”二元框架下,诊疗式人工智能的性质界定是分析其致害责任认定的前提。首先,反思将诊疗式人工智能定性为服务的弊端以及定性为产品的可能性;其次,分析无实物载体的人工智能辅助诊断系统能否纳入“产品”的范畴,以及诊疗式人工智能输出信息与传统医学书籍信息的区别,从而证成诊疗式人工智能致害适用医疗产品责任的合理性。

(一)诊疗式人工智能性质界定争议及反思

人工智能在医疗领域的应用包括物理和虚拟两个分支:物理分支体现为具有实物载体的手术机器人;虚拟分支体现为纯粹以软件形式嵌入医疗机构现有设备,利用深度学习算法技术为诊疗活动提供辅助支持的人工智能系统,包括医学影像分析和临床决策支持系统。目前,学界对于诊疗式人工智能的性质界定主要有“服务说”和“产品说”两种观点。

持“服务说”的学者认为,诊疗式人工智能仅是一种“服务”而非“产品”。原因在于:其一,传统产品责任法注重产品的有形性和物质属性,人工智能系统等无形软件被排除在外。其二,诊疗式人工智能软件仅作为辅助工具为医生提供诊断建议,最终治疗方案由医生决定。其三,诊疗式人工智能侵权若适用产品责任,则为无过错责任,对于开发者而言责任过重,这不利于鼓励诊疗式人工智能技术在医疗健康领域的创新发展。

持“产品说”的学者认为,医疗器械监督管理条例等规范性文件已将软件纳入医疗器械的范畴,诊疗式人工智能属于提供技术信息的智力产品。有学者认为,无形的智力成果与实物载体相结合形成的有体物属于产品,但是无形的智力成果本身并非产品;但也有观点认为,不论软件是否与实物载体相结合,若其核心功能未受影响,则生产者的风险和收益仍是相同的。因此,根据软件是在USB设备上还是通过云服务下载使用来区分产品和服务并无实质意义。

比较而言,两者的分歧在于:(1)无实物载体的软件能否纳入产品责任法调整范围。(2)诊疗式人工智能作为医疗服务中的辅助工具,是否具有独立适用产品责任的必要性。(3)对诊疗式人工智能适用产品责任是否会阻碍技术创新发展。具体而言:

其一,在规范层面,无实物载体的软件可以被纳入产品责任法适用范围。为应对数字时代的发展变化,欧盟《产品责任指令》第4条将“产品”的范围扩大为“软件(包括软件更新)”——无论是嵌入式还是独立式,包括人工智能系统。我国《产品质量法》中的“产品”在文义层面并未明确局限于需要具有物质载体,面对人工智能系统引发的风险,产品需“具有使用价值的物质载体”这一特征存在被突破的可能性。

其二,医疗人工智能属于高风险人工智能,与应用于其他领域的人工智能存在差异。我国《人工智能法(学者建议稿)》第50条将“对个人的生命有重大影响”的人工智能列入“关键人工智能”范畴。法律规范对医疗人工智能蕴藏高风险的容忍度应当更低,若将其定性为“服务”与以ChatGPT为代表的低风险生成式人工智能等量齐观,难以充分保护患者生命健康权益。

其三,从保护医务人员行为自由角度,诊疗式人工智能致害具有适用产品责任的必要性。虽然有观点认为,诊疗式人工智能“算法”通常被认为是一种“服务”而不受产品责任的约束,但是,随着人机协作诊断模式逐渐成为常态化诊疗模式,在医疗服务中使用医疗器械会越来越普遍。如果将诊疗式人工智能视为医疗服务的一部分而仅追究医疗行为责任,会使医疗机构及其医务人员负担过重。为了避免人工智能技术带来的风险,医疗机构及其医务人员可能会采取防御性医疗措施而放弃使用诊疗式人工智能,最终会抵消人工智能技术的优势。若医务人员不存在诊疗过失,此时追究生产者独立的产品责任具有必要性。

其四,从激励人工智能技术创新的角度来看,将诊疗式人工智能定性为产品并不会过分提高生产者注意义务标准而阻碍技术的创新发展。产品责任为无过错责任,但并非意味着将生产者的注意义务提高至与高度危险责任等同的水平。产品责任中的“无过错”仅意味着受害人无需举证证明生产者存在主观过错,因为对于产品缺陷的判定即包含了过失元素。生产者未尽到相应水平的注意义务导致产品存在缺陷时,才有产品责任适用的空间。因此,对于将诊疗式人工智能定性为“服务”适用一般过错责任有利于鼓励创新的观点,其理据并不充分。

(二)诊疗式人工智能致害适用医疗产品责任的合理性

诊疗式人工智能不论是否依托有形介质,均可以适用产品责任法评价规范。传统意义上的产品必须有实物载体以承载其使用价值,但是无实物载体的软件也可以承载相应的使用价值。在经济学上,狭义的产品是指有形的物质商品,广义的商品是指可以满足人们需求的载体,包括无形的软件。传统产品责任法关注的是因产品缺陷给消费者造成危险,将产品局限于有形的物质商品,相当于经济学中商品的狭义概念。但是在数字化时代,软件也可以独立或者作为组件集成到其他产品中,通过程序运行而造成损害。欧盟《产品责任指令》序言(13)指出,无论软件是储存在设备上、通过通信网络或云技术访问,还是通过软件即服务模式提供,均适用无过错责任。虽然人工智能系统不具有实物载体,但是对于消费者而言,其使用价值与传统有体物是相同的,且均存在因缺陷而造成危害的可能性。在法律评价具有决定性意义的方面,两类事实构成彼此类似,应作相同评价。因此,数字时代的“产品”不仅包括有体物,也包括无实物载体的人工智能系统。

较之医学书籍中的文化性信息,诊疗式人工智能输出技术性实用信息,具有适用产品责任的必要性。文化信息因涉及对于言论自由的保护而通常难以被认为包含不合理的危险,技术信息可以为人类活动提供专业技能指导,具有工具性价值。若技术信息存在“不合理的危险”,将对消费者产生具有直接意义的安全性威胁。诊疗式人工智能输出的信息具有如下特征:(1)人机互动输出的特异性信息。图书中的信息对于每位读者而言具有同质性,而诊疗式人工智能根据患者独特的检查化验指标、病灶类型等具体情况提供针对性辅诊建议,具有显著的个体适配性。医务人员并非被动接收信息,而是可以通过交互式反馈参与决策过程,进而影响系统的输出结果。(2)直接影响医生诊断决策的信息。虽然医生会对诊疗式人工智能的辅诊建议进行再判断,但是诊疗式人工智能的辅诊建议具有现实性、直接性和紧迫性。医生对于医学书籍中的信息可以进行交叉验证,而对于诊疗式人工智能的辅诊建议,很难再找到相似的渠道进行交叉验证。因此,对诊疗式人工智能输出技术性信息中蕴含的不合理风险适用产品责任予以规制具有必要性。

产品责任本质上是对生产者不适当行为的规制,至于产品只不过是一种行为的载体。在我国,人工智能目前尚不能作为独立的主体承担责任。人工智能辅诊信息蕴含的“不合理危险”实则是人工智能软件缺陷的外观呈现,本质上归属于人工智能软件研发者、生产者、销售者的产品责任。一方面,研发者、生产者和销售者作为人工智能高科技风险的开启者,对于诊疗式人工智能带来的风险具有控制和防免义务,从风险预防角度为其设定注意义务,并将注意义务的违反与产品缺陷的过失元素结合可实现侵权法的矫正正义目标;另一方面,人工智能的研发者、生产者和销售者较之医学书籍的作者更具备分散损失的经济能力,从损害救济的角度看,由其承担侵权责任更符合侵权法分配正义的要求。

综合而言,无实物载体的软件可以承载相应的使用价值,诊疗式人工智能应被纳入“产品责任法”意义上“产品”的范畴。诊疗式人工智能基于人机交互输出的技术性信息对于患者而言具有特异性,若蕴含不合理危险会对医生临床诊断决策产生直接影响。诊疗式人工智能的研发者、生产者和销售者具有风险控制能力,且能够更有效地分散损失。因此,诊疗式人工智能致害锚定医疗产品责任体系更符合矫正正义与分配正义的双重价值目标。

三、诊疗式人工智能医疗产品责任核心成立要件

《民法典》第1223条规定的医疗产品责任是第1203条产品责任在医疗侵权中的具体化。产品责任的核心构成要件是产品缺陷和因果关系,面对医疗黑箱和人机协同带来的挑战,诊疗式人工智能产品缺陷及因果关系的判定标准需予以更新。

(一)诊疗式人工智能产品缺陷的判定标准更新

现有产品缺陷判断标准“技术性标准”和“不合理危险标准”在诊疗式人工智能产品缺陷判定中存在适用困境。较之传统性能稳定的产品,诊疗式人工智能在投入使用之后,会持续自主学习更新,而“技术性标准”因具有局限性和滞后性,难以应对人工智能产品动态适应性的特征。理论上关于产品缺陷“不合理危险”的判断标准主要有“消费者合理期待标准”和“风险—效用标准”,但是这两种判断标准对于诊疗式人工智能产品缺陷的判定亦存在适用困境。消费者合理期待标准本质上是法律共同体对于产品性能的整体性期待,该标准较为抽象模糊,难以适用于复杂专业的产品设计。诊疗式人工智能作为一种新兴科技,具有复杂性和专业性,消费者对产品安全并没有合理的预期。“风险—效用标准”的核心在于寻求合理的替代设计,但是普通的医生或者患者缺乏算法相关的专业知识理解诊疗式人工智能的运作过程,更难以提出合理的替代方案。为缓解上述两种不合理危险判断标准的适用困境,有学者提出“理性算法标准”,旨在寻求更为契合人工智能技术特征的客观化缺陷标准。该标准虽然将理性人与理性算法统一在“理性判断标准”框架内进行分析,但是需要将诊疗式人工智能中应用的算法与其他的同类算法、机器人医生的行为进行比较,而非与理性的人类医生或者理性的程序员的行为进行比较。“理性算法标准”也难以找到合适参照对象来确定算法的合理性标准。而且,由于人工智能系统本身并不具备法律主体资格,算法若未达到相应的合理性标准,最终还是需要回归算法研发者的责任。

“技术性标准”的更新需要经历严格的规范出台程序渐进式推进,为化解诊疗式人工智能产品缺陷认定困境,应当及时更新“不合理危险”判定标准。诊疗式人工智能产品研发者、生产者、销售者开启了产品中蕴含的不合理危险,应当对此负有危险的控制和防免义务。算法的设计程序体现了开发者的意志,在无法评价一个新兴人工智能产品性能和质量的情况下,应当考虑研发者、生产者、销售者行为的合理性,关注其是否尽到了保障用户合理预期和人身财产安全的注意义务。注意义务的违反即为过失,诊疗式人工智能产品缺陷表面上体现为产品的性能和质量问题,实质上反映了生产者的过失。而且,探寻注意义务违反与产品缺陷的内在联系,凸显其中的过失元素,与产品责任的归责原则并不冲突。原因在于,产品责任的严格责任并非不考虑过失,而是过失包含于缺陷认定之中,无需再次证明。因此,产品缺陷实质上是研发者、生产者、销售者不合理行为的外观呈现,与注意义务违反具有内在的一致性。

研发者、生产者和销售者违反相应注意义务的行为可以作为诊疗式人工智能产品缺陷的判定因素。制造缺陷是对预期设计的偏离,较容易判断,设计缺陷、警示说明缺陷和跟踪观察缺陷更关注研发者、生产者和销售者的行为。诊疗式人工智能算法研发者在设计研发环节应当在算法数据来源、算法模型选择、算法决策公平性等方面尽到应有的注意义务,确保诊疗式人工智能算法的输出结果达到透明、准确、公平的标准;研发者、生产者和销售者应当对医疗机构及其医务人员尽到相应的警示说明义务,使医务人员能够清晰充分知晓诊疗式人工智能的适用范围、使用方法、基本运作逻辑以及结论得出的依据;研发者、生产者和销售者应当尽到跟踪观察义务及时更新人工智能系统,确保诊疗式人工智能系统安全稳健运行。若研发者、生产者和销售者未尽到相应水平的注意义务,即可认定存在产品缺陷。

在程序规则方面,由于人工智能技术的复杂性,受害人与研发者、生产者和销售者相比在获取和了解产品设计、生产、运作等方面的信息明显处于劣势地位。基于分配正义的理念,应当对受害人这一弱势群体予以倾斜保护。欧盟《产品责任指令》序言(46)规定了可反驳的事实推定规则来减轻原告的证明负担。我国《民事证据规定》第10条为事实推定规则的适用提供了规范依据。因此,在受害人证明产品缺陷确有困难的情况下,可以采取事实推定的方式减轻其证明负担。这既避免了举证责任的转移,又可弥合受害人和产品研发者、生产者、销售者之间的“信息鸿沟”。首先,受害人提出诊疗式人工智能的性能未达到其合理期待,根据事实推定规则,可以将更容易证明的关联事实作为受害人的证明对象。其次,在受害人证明该关联事实之后,法官根据已知事实和日常生活经验法则判断产品是否存在缺陷。如果法官能够以典型的事实经过和盖然性较高的经验法则为基础,推知产品存在缺陷,则适用表见证明规则;如果受害人提出的证据并未达到适用表见证明的标准,但是可以基于一般的日常生活经验法则推断出主要事实,则可以适用间接证明规则。目前学界关于人工智能汽车设计缺陷的相关论述认为,在产品故障原则下,只要受害人证明人工智能产品在正常使用的过程中发生了故障,即可认定人工智能产品存在缺陷。根据该原则,如果医疗机构按照要求及时更新维护诊疗式人工智能系统,在医务人员正常使用过程中,诊疗式人工智能出现运作故障等情形,则可以适用事实推定规则推定产品存在缺陷。最后,由诊疗式人工智能生产者来证明,基于当时技术发展水平,其已经尽到合理注意义务防免危险发生,最大程度保护患者的生命健康安全。由于事实推定并未移转证明责任,因此,生产者提出的其已经尽到合理注意义务的证据只需让法官对推定事实不能形成内心确信,使该事实处于真伪不明的状态即可。

(二)诊疗式人工智能致害的因果关系认定层次

医务人员过失和诊疗式人工智能产品缺陷因素交织,增加受害人因果关系证明难度。虽然“若无则不”(“butfor”)是判断事实因果关系的典型标准,但是在诊疗式人工智能致害中,加害行为与损害后果之间的因果关系难以清晰计算,“要么全有,要么全无”的判断标准难以适用。有学者提出以充分条件组中的必要要素标准(NESS,Necessary Element of a Sufficient Set)来判断诊疗式人工智能产品缺陷与损害之间的事实因果关系。根据该观点,如果医务人员完全或者部分采信机器决策建议导致患者损害,那么诊疗式人工智能产品缺陷就与患者损害之间存在事实上的因果关系;反之,则不存在事实上的因果关系。但若如此,是否会促进医生倾向于采纳诊疗式人工智能的决策建议?如果医生完全或者部分采纳人工智能建议,则可以认定诊疗式人工智能产品缺陷与患者损害之间存在因果关系,此时相当于产品的研发者、生产者和销售者需要和医疗机构一起承担损害赔偿责任。那么医务人员是否会因为不采纳诊疗式人工智能诊断建议将导致医疗机构单独承担损害赔偿责任、成本较高,而倾向于接受诊疗式人工智能的意见?这不利于患者利益最大化,也容易导致道德风险。对此,应借助风险增加理论,区分风险增加的可能性与实质性,层次化分析诊疗式人工智能致害因果关系的判断标准。

其一,以“风险增加的可能性”作为诊疗式人工智能产品缺陷与患者损害之间事实因果关系的判定标准。受害人只需要证明诊疗式人工智能输出的信息显著增加了其遭受损害的可能性即可。判断条件关系的本质并非确定行为与损害结果之间确实已经存在肯定的因果关系,而在于判断行为和损害结果是否符合一般条件关系和具体条件关系,然后再通过相当性层面予以检验。一般条件关系仅在医学知识和人工智能技术层面判断行为是否存在导致损害的可能性,具体条件关系则判断个案中行为是否具有导致损害的可能性。可见,条件关系的判断,并不要求确定无疑,患者只需证明存在致害的可能性即可。

其二,事实因果关系认定中运用可反驳的因果关系推定规则。接受诊疗式人工智能辅助治疗的患者缺乏必要的医学知识和人工智能专业技术知识来证明存在因果关系。为缓解受害人的证明困境,欧盟《产品责任指令》序言(48)规定了“可反驳的因果关系推定规则”。首先由受害人证明产品的缺陷很可能是造成损害的原因,在法院推定存在因果关系之后,被告可以提出相反证据证明不存在因果关系。同产品缺陷的事实推定相似,在原告证明存在因果关系过度困难时,可将因果关系的成立建立在较为容易证明的事实上;或者如果确定产品存在缺陷,且所造成的损害属于典型的与缺陷相符的损害,则应推定产品缺陷与损害之间存在因果关系。因果关系证明的复杂程度应当由法官综合考量多种因素个案衡量决定,包括诊疗式人工智能设备类型、人工智能算法技术复杂性、受害人需要分析的资料和数据等因素。例如,如果为了证明这种因果关系,需要受害人解释人工智能系统内部运作的原理,这对于受害者而言应定性为举证过度困难,可以适用因果关系推定规则。

其三,以“实质性风险增加”作为诊疗式人工智能产品缺陷与患者损害之间法律因果关系的判定标准。为避免因果关系链条无限延伸,需以事后回溯性视角考虑责任范围问题。“实质性”标准是法律因果关系中融入侵权法价值判断的通道。对于“实质性”的判断,应从“富有经验的观察者”的视角,综合考量患者病情罕见性、诊疗式人工智能既往诊断准确率以及人工智能辅助手术的难易程度等因素的权重及其相互关系,建立弹性的价值判断体系。总体的价值目标是实现保障患者生命健康安全、维护医务人员诊疗行为自由以及鼓励医疗人工智能技术创新之间的平衡。

行为人对其可预见范围内的风险导致的损害承担责任。诊疗式人工智能产品缺陷引发的风险是否超出研发者、生产者和销售者的可预见范围,需从以下方面判断:

(1)行为人违反法定义务导致风险实质性增加当然在其可预见范围之内。如果诊疗式人工智能的研发者、生产者和销售者违反了法定的注意义务,那么按照常规的发展逻辑,会造成规范意欲保护的主体和利益受到损害。例如,诊疗式人工智能的研发者、生产者和销售者未对手术机器人适用对象的BMI等身体指标尽到警示说明义务,此时应当认定该产品缺陷实质性增加了损害发生的风险,并未超出行为人可预见范围。

(2)诊疗式人工智能基于自主性输出错误,是否超出研发者合理预见范围。域外有案例认为,诊疗式人工智能的行为若超出了研发者的合理预见,发生了不可预测的错误,此时研发者无需承担责任。这涉及诊疗式人工智能算法自主性和研发者可预见性之间的矛盾,如果认为诊疗式人工智能基于自主性的输出错误超出研发者可预见范围,相当于是对人工智能的自主性持放任态度。人工智能自主性本就在研发者预见的范围内,不可预测性也可能是研发者有意为之的结果。如果基于人工智能自主性而否认因果关系则不利于患者生命健康权益的保护。

(3)医务人员的再判断等介入行为是否构成中断因果关系的替代原因需作类型化分析。若医务人员的介入行为属于故意或重大过失的不法行为,则中断因果关系;如果仅存在一般过失,则不中断因果关系。因为医务人员故意或者重大过失的不法行为超出了研发者、生产者的合理预见范围,如果要求研发者、生产者仍要为后续损害负责则负担过重,不利于鼓励人工智能技术创新。此时,医务人员存在严重的可归责性,没有保护行为自由的必要性。比如,医务人员采纳诊疗式人工智能推荐的明显不符合医学常识的诊断建议,应当认定医务人员存在重大过失,医务人员介入行为可以中断产品缺陷和损害结果之间的因果关系。然而,如果医务人员的介入属于一般的过失行为,则应在研发者、生产者可预见范围之内。如若不然,对于医务人员注意义务标准要求过高,会导致其采取防御性医疗措施,甚至放弃使用诊疗式人工智能。总之,因果关系相当性的检验应当建立在各方利益权衡的基础上,以实现人工智能技术应用于医疗健康领域时安全与创新之间的平衡。

四、诊疗式人工智能医疗产品责任主体及承担

在明确诊疗式人工智能致害适用产品责任的合理性及其核心成立要件之后,诊疗式人工智能致害的责任承担问题自然可以纳入现有医疗产品责任体系中予以分析。

(一)诊疗式人工智能医疗产品责任主体扩张

诊疗式人工智能医疗产品责任的主体范围尚存在争议,有观点认为专业中间人规则阻断了诊疗式人工智能生产者和销售者的责任;也有观点认为应当废止最近规则,医疗机构不应作为直接的责任主体。综合而言,诊疗式人工智能产品责任第一层次直接向患者承担损害赔偿责任的主体应当包括产品的生产者、销售者、医疗机构、医疗器械注册人及备案人。原因如下:

其一,专业中间人规则并非当然免除诊疗式人工智能生产者和销售者的责任。从诊疗式人工智能生产者的角度,专业中间人规则可以阻止患者直接起诉生产者。因为医务人员是医疗器械生产者和患者之间具备专业知识的中介,处于权衡风险的最佳位置,生产者向医务人员履行产品使用方法及潜在危险的警示义务后,无需直接向患者承担责任。由此,诊疗式人工智能生产者倾向于对医疗机构及其医务人员作概括的警示说明来规避责任。例如人工智能生产者可能会说明人工智能系统将基于后期的新数据不断更新以提高性能,但是并不能完全确保其准确性。再比如,人工智能生产者可能会警示医疗机构及其医务人员谨慎行事,不要盲目地依赖人工智能输出的结果。如此类似“免责声明”的警告可能会增加医疗服务提供者的责任,而降低人工智能生产者的责任。在临床医生的角度,诊疗式人工智能系统经审批投放市场之后,医生有理由认为人工智能辅助诊疗系统提供的意见是合理的。专业中间人规则要求医生权衡使用诊疗式人工智能的风险。医生如果认为使用诊疗式人工智能辅助诊断给其自身带来的可预见风险高于患者疾病诊治的预期效果,则可能会放弃使用该产品,以避免承担责任。这可能会导致一些罕见病错失前沿的治疗方案,亦不利于医学的发展进步。因此,应当严格限制专业中间人规则的适用范围,防止诊疗式人工智能生产者借专业中间人规则不当规避责任。除生产者已经对产品的基本使用方法及危险防止等事项尽到警示说明义务外,因其他产品缺陷导致患者损害的,诊疗式人工智能生产者仍然需要承担责任。销售者在产品分销链条中处于医疗机构的上游,同生产者处于相似地位,也负有警示说明义务,亦不能借专业中间人规则当然地免除责任。

其二,不能废止最近规则,医疗机构亦应为责任承担主体。有学者主张废止最近规则在医疗产品责任中的适用。原因在于,医疗机构对于诊疗式人工智能缺乏控制和分散风险的能力,其承担责任后再追偿会增加诉讼负担。如果医疗机构无过错,患者应直接向生产者主张赔偿。但是,诊疗式人工智能的辅助定位决定了人工智能产品缺陷中蕴含的风险必须经由医务人员的诊疗行为才能够现实化进而对患者产生实质损害。一方面,基于患者对医疗机构的信赖关系,医疗机构不仅是专业医疗服务的提供主体,也是医疗器械的把关主体。患者对于诊疗式人工智能并不具有自主选择权,而且对新兴科技的潜在风险及功能效果缺乏相应的预期,更多是基于对医疗机构及医务人员的信赖而作出的选择。因此,在使用诊疗式人工智能辅助诊断时,医疗机构及其医务人员应当担任把关的角色,保护患者的信赖利益。另一方面,医疗机构承担类似于销售者的责任早在部分案件中得到司法实践认可。医疗机构使用诊疗式人工智能为患者提供服务,患者可能为此付出更高的费用成本,医疗机构在此过程中间接获益,这与销售者具有一定的类似地位。因此,医疗机构应当承担类似于销售者的进货检查义务,选取资质良好的供应商,降低因医疗器械缺陷导致患者损害的风险。而且,医疗机构有控制和防免诊疗式人工智能风险的义务,应当承担维持诊疗式人工智能系统安全、稳健运行的组织义务,这与产品销售者应当保持产品质量良好的义务具有一致性。医疗机构如果违反了相应义务应承担医疗产品责任。

其三,增加医疗器械的注册人、备案人为医疗产品责任承担主体。医疗器械的注册人、备案人是指取得医疗器械注册证或者办理医疗器械备案的企业或者研制机构。虽然《民法典》第1223条并未规定医疗器械的注册人和备案人为承担连带责任的主体,但是在《民法典》颁布之后修订的《医疗器械监督管理条例》第13条规定,医疗器械注册人、备案人应当对医疗器械的安全性、有效性依法承担责任。《民法典》第1223条新增“药品上市许可持有人”为责任主体,根据《药品管理法》第30条的规定,药品上市许可持有人是指取得药品注册证书的企业或者药品研制机构,其对药品研制、生产等全过程的安全性、有效性和质量可控性负责。药品上市许可持有人对药品整个生命周期承担主要责任,该制度体现了集中明确规制理念。医疗器械注册人、备案人与药品上市许可持有人的地位类似,因此在诊疗式人工智能全生命周期中,医疗器械注册人、备案人也应当成为医疗产品责任的主体。

(二)诊疗式人工智能医疗产品责任承担方式

《民法典》第1223条以及《医疗损害责任司法解释》第21条规定了患者因医疗产品缺陷造成损害的医疗产品责任,但是理论上关于医疗产品责任的性质存在争议。有观点认为,《民法典》第1223条旨在方便患者行使请求权而非建立各个主体之间的连带关系。医疗机构不应当与产品的生产者一起承担连带责任,因为医疗机构的主要职责在于提供专业化的医疗服务,而非单纯是产品的销售者。医疗机构可以因违反诊疗义务和组织义务而承担过错责任,但是不能够因医疗器械或者药品的缺陷而承担无过错责任。也有观点认为,该条规定的是连带责任。虽然我国连带责任是严格的明定主义,成立连带责任需要由法律规定或者当事人约定,但是随着社会的发展变化,也应对此严格的明定主义予以适当缓和。经由法解释可以使当事人承担连带责任。比较而言,前者忽视了现代化诊疗对医疗器械的依赖程度,以及医疗机构与产品销售者的类似地位;后者需进一步明确当事人之间的责任类型,不真正连带责任的发生是相关的法律关系偶然竞合所致,这与连带责任依当事人约定或者法律规定而发生不同。诊疗式人工智能致害的医疗产品责任性质应当是不真正连带责任,具体而言:

在外部效力层面,诊疗式人工智能的生产者、销售者、医疗机构、医疗器械注册人及备案人对外承担连带责任符合侵权法分配正义的要求。分配正义通过合理配置社会成员之间的责任以实现保护弱势群体的目标。患者为弱势群体,在其受到损害时,应当获得倾斜性保护以实现实质公平。一方面,从节约患者诉讼成本角度,患者难以知悉医疗器械的生产者等信息,即便从医疗机构获得相关信息,也可能由于欠缺专业知识等客观原因难以主张权利。诊疗式人工智能系统嵌入医疗机构现有医疗设备后,涉及的责任主体众多而隐秘,又加剧了该问题的复杂性。医疗产品责任中,医疗机构承担连带责任便于患者尽快找到责任主体寻求救济。《民法典》第1223条是产品责任部分第1203条在医疗损害责任部分的细化,因医疗产品缺陷造成患者损害的,医疗机构实质上作为产品的销售者承担无过错责任。无过错责任的基本思想在于不幸损害的合理分配,是基于分配正义的理念。另一方面,从最终的损害救济角度,医疗机构承担医疗产品责任的能力有限,生产者等作为直接责任主体,可以分担医疗机构赔偿不能的风险。司法实践中,患者请求多个直接责任主体承担责任时,法院一般判决直接责任主体承担连带责任。诊疗式人工智能的生产者、销售者等主体对于其开启的风险本就具有风险控制和防免义务,且从生产和销售人工智能产品过程中获益,较之医疗机构也更具备分散损失的经济能力,可以通过产品责任保险或者价格机制来实现风险与成本的社会化分摊。因此,基于分配正义保护弱势群体的理念,诊疗式人工智能直接责任主体应对外承担连带责任。

在内部效力层面,诊疗式人工智能产品缺陷造成患者损害,产生中间责任和最终责任,直接责任主体对外承担责任后可以向有过错的最终责任主体追偿,这是不真正连带责任的内部效力,也是侵权法矫正正义的体现。矫正正义对不当行为予以调整,使因他人损害行为而遭受的损失能够得到补偿。引起诊疗式人工智能产品缺陷的是终局责任人,而中间责任人只是先向患者承担了损害赔偿责任。因此,中间责任人有权向终局责任人追偿其已经赔偿的款项,导致法效果在中间责任人与终局责任人之间完全转移。最终责任主体的范围除直接责任主体外,根据《民法典》第1204条的规定,还包括运输者、仓储者等第三人。《民法典》第1223条并未规定双向追偿权,虽然有学者认为不应当直接适用双向追偿权的规定,单向追偿应是立法者有意为之,但是基于医疗产品责任中医疗机构与销售者的类似地位,可以适用《民法典》关于产品责任的规定,解释为双向追偿权。《医疗损害责任司法解释》第21条规定,医疗机构承担赔偿责任后,可以向缺陷产品的生产者、销售者追偿;如果医疗机构过错导致产品缺陷,生产者和销售者承担责任后可以向医疗机构追偿。可见规范层面产品责任主体之间存在双向追偿权,最终由有过错的责任主体承担终局责任,也契合侵权法矫正正义的目标。因此,对于第一层次直接向患者承担损害赔偿责任的主体(诊疗式人工智能的生产者、销售者、医疗机构、医疗器械注册人及备案人),其承担中间责任后,可以向引起产品缺陷的终局责任主体追偿。至于生产者与诊疗式人工智能研发者、提供者、部署者之间的追偿问题,则依照其内部的合同约定处理。

结语

在人工智能立法如火如荼的背景下,本文从解释论角度,立足传统的侵权责任规范体系,分析诊疗式人工智能致害的责任成立和责任承担问题。在数字化时代,无形的软件也可以承载相应的使用价值,诊疗式人工智能不论是否依托有形介质,均可被纳入产品责任法意义上“产品”的范畴。诊疗式人工智能致害锚定产品责任体系更符合矫正正义与分配正义的双重价值目标。面对诊疗式人工智能新兴科技的冲击,传统的产品缺陷和因果关系判定方式需要解释更新。为破解诊疗式人工智能产品缺陷认定难题,需要充分发掘产品缺陷认定中的过失元素,以注意义务的违反作为产品缺陷的判定因素。诊疗式人工智能致害因果关系的判断应当借助风险增加理论进行层次化分析。“事实推定”规则的运用可以减轻受害人对于产品缺陷和因果关系的证明负担,化解人工智能技术创新与当事人专业知识匮乏之间的张力。最后在现有侵权责任规范体系中,明确诊疗式人工智能致害的产品责任主体与责任承担方式。本文一方面锚定责任体系设定行为标准以引导技术向善,为诊疗式人工智能铺设安全的发展轨道;另一方面,在诊疗式人工智能致人损害时,通过规范的解释适用提供及时的救济渠道,为诊疗式人工智能侵权的风险预防与损害救济提供本土化因应方案。

来源:上海市法学会一点号

相关推荐