姚志伟 | 生成式人工智能服务提供者在私法上的法律性质

360影视 2025-02-08 16:26 3

摘要:在生成式人工智能服务相关侵权诉讼中,生成式人工智能服务提供者的法律性质问题是核心争议点。法律性质的界定,关系到生成式人工智能服务提供者的义务和责任,更与产业的健康发展息息相关。《生成式人工智能服务管理暂行办法》将人工智能服务界定为信息服务,在公法上要求服务提供


本文首发于《上海交通大学学报(哲学社会科学版)》2024年第12期(第127-142页),作者姚志伟,广东财经大学法学院教授

【摘要】

在生成式人工智能服务相关侵权诉讼中,生成式人工智能服务提供者的法律性质问题是核心争议点。法律性质的界定,关系到生成式人工智能服务提供者的义务和责任,更与产业的健康发展息息相关。《生成式人工智能服务管理暂行办法》将人工智能服务界定为信息服务,在公法上要求服务提供者承担内容生产者责任,在私法上并未明确其法律性质。

关于生成式人工智能服务提供者在私法上的定性,现有的讨论集中于其是内容服务提供者还是技术服务提供者。根据人工智能内容生成的特点,难以将生成式人工智能服务提供者定性为内容服务提供者、技术服务提供者或新型网络服务提供者。在此基础上,考虑到权利保护和产业发展的平衡,应该超越内容服务/技术服务的二元划分,在私法上对生成式人工智能服务提供者进行重新定性。具体而言,应明确其为侵权责任法上的特殊责任主体,规定以专门的免责机制,有条件地免除其赔偿损失责任。

【关键词】

生成式人工智能服务提供者;法律性质;私法;信息服务;避风港

目次

一、现行法上生成式人工智能服务提供者的概念及定性

(一)生成式人工智能服务提供者的概念

(二)生成式人工智能服务提供者在现行法上的定性

二、生成式人工智能服务提供者在私法上定性的困难

(一)内容服务提供者和技术服务提供者的二元划分

(二)生成式人工智能服务提供者难以被定性为技术服务提供者

(三)生成式人工智能服务提供者不应被定性为内容服务提供者

三、超越二元对立:生成式人工智能服务提供者在私法上的新定性

(一)明确生成式人工智能服务提供者在侵权责任法上新的特殊责任主体地位

(二)生成式人工智能服务提供者作为新特殊责任主体应有的免责机制

· 结语

生成式人工智能(Generative Artificial Intelligence,以下简称GAI)技术正在对全球的经济发展和社会关系等产生深刻的影响,也是新一轮科技革命的中心所在。生成式人工智能技术及相关产业在促进社会发展的同时,也带来了一系列挑战,在法律方面同样如此。美国和中国都出现了一系列针对生成式人工智能服务提供者(以下简称GAI服务提供者)的诉讼,核心问题是著作权侵权的问题。这种情景极其类似于20世纪90年代,互联网技术和产业在发展之初遇到的法律挑战。美国的权利人当时同样向互联网论坛和存储空间的运营者等主体发起著作权侵权诉讼,要求他们为其平台上的用户侵权内容承担严格责任。美国立法者为平衡互联网产业的发展和著作权人的利益,制定了《新数字千年版权法》第512条。该条将提供技术服务而非内容服务的服务提供商定性为“网络服务提供商”(Online Service Provider),给予有条件的侵权责任豁免,该条也被称为避风港规则。随着互联网产业在全世界范围内的发展,避风港规则也被各个国家和地区所借鉴和移植。中国法同样引入了避风港规则,为网络技术服务提供者提供侵权赔偿责任的豁免机制。这个移植的过程,实际上是对网络技术服务提供者的法律性质进行新的定性,将其视为侵权责任法上的特殊责任主体,为其规定专门的侵权责任免责规则。

在生成式人工智能产业快速发展的当下,GAI服务提供者作为新主体的法律定性问题同样凸显。立法上,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)要求GAI服务提供者承担“网络信息内容生产者”责任的规定,引发了一些争议。在司法上,广州互联网法院作出了“全球首例生成式AI服务侵权判决”,该案判决后引发热议,其中一个重要的争议点是该案被告作为GAI服务提供者的法律性质,究竟是网络技术服务提供者还是网络内容服务提供者(下文分别简称技术服务提供者和内容服务提供者)。在域外,GAI服务提供者是否应该被定性为技术服务提供者从而进入避风港,也存在很大争议。

在此背景下,本文将对GAI服务提供者在私法上的法律性质问题展开研讨。需要明确的是,本文的研究以《暂行办法》对“生成式人工智能服务提供者”的概念界定为出发点,该办法将生成式人工智能界定为一种信息服务。因此,本文是在信息服务的场景下,讨论私法上GAI服务提供者的法律性质问题。

一、现行法上生成式人工智能服务提供者的概念及定性

在讨论GAI服务提供者私法上的定性问题时,有必要先对《暂行办法》上GAI服务提供者的概念和定性加以探讨,以作为后续讨论的基础。

(一)生成式人工智能服务提供者的概念

根据《暂行办法》,生成式人工智能服务是一种信息服务,GAI服务提供者是信息服务提供者。同时,GAI服务提供者包括GAI模型研发者和GAI部署者(以下分别简称研发者和部署者)两大类型,具体论述如下。

在讨论GAI服务提供者概念之前,必须先讨论生成式人工智能服务的定义。按照《暂行办法》第22条第1项规定:“生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。”同时,《暂行办法》第2条第1款规定:“利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务(以下称生成式人工智能服务),适用本办法。”可以认为,《暂行办法》将生成式人工智能服务定义为一种内容生成服务,这种内容生成服务可以归为中国法上更为常见的“信息服务”。

在《暂行办法》的语境下,生成式人工智能服务的本质是一种信息服务,其理由是:

第一,《暂行办法》明确将生成式人工智能服务界定为内容生成服务,而没有提及人工智能的其他用途规制,例如自动驾驶、机器人等用途,显然其本质不是一种内容生成的服务。可兹比较的是欧盟《人工智能法》的规制范围不限于信息服务,可以涵盖自动驾驶、机器人等用途。欧盟《人工智能法》规制范围的广泛性,与其采用的概念相关。该法没有采用“生成式人工智能”的界定,而是采用“通用人工智能”的界定,并强调“通用性,能够胜任各种不同的任务,并可集成到各种下游系统或应用中”。

其二,《暂行办法》征求意见稿在界定生成式人工智能时,明确指出生成的内容包括“文本、图片、声音、视频、代码”。“代码”并非中国法上信息服务规制的对象,其具有功能性。在正式稿中,“代码”被删除。这也能证明立法者意图规制的仅是信息服务。

其三,从《暂行办法》对生成式人工智能服务提供者规定的义务也可以得出其服务仅是信息服务的结论。《暂行办法》第9条明确规定提供者要承担“网络信息安全义务”,这非常明显地指出其是一种信息服务。同时,第12条规定的标识义务等义务也是信息服务提供者才可能承担的义务。例如,一个“集成”到机器人中的模型:该模型的目的,是让机器人获得“智能”,能够更好地执行机器人的任务,例如做家务。在这个情境下,要求其承担标识义务没有意义。

其四,《暂行办法》规定要尊重的人格权,不包括信息服务外用途可能会涉及的身体权、健康权等人格权。《暂行办法》第4条第4项规定了提供和使用生成式人工智能服务要尊重的人格权,包括:“不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。”这些人格权都是信息服务可能侵犯的人格权。但是,信息服务以外的用途,例如将生成式人工智能用于机器人,可能会侵害到身体权和健康权。《暂行办法》并没有规定不得侵害身体权和健康权,这可以推论出《暂行办法》规定的生成式人工智能服务仅限于信息服务。

按照《暂行办法》,GAI服务提供者的概念是:“利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。”这个概念里面包括了研发者和部署者两种类型。所谓研发者,普遍认为是研发人工智能模型(以下简称模型)的主体,日本《关于AI与著作权相关问题的看法》对这个概念进行了较为细致的界定:“是指开发生成式AI(预训练模型),收集训练数据,构筑训练用的数据集以及使用训练用数据集进行AI训练等行为的当事人。”研发者工作的核心是通过使用数据进行(预)训练的方式,形成人工智能模型。

部署者,是指利用人工智能模型提供生成式人工智能服务的主体。日本《关于AI与著作权相关问题的看法》将其表述为“AI服务提供商”,具体定义是:“对现有的生成式AI进行进一步训练、为AI利用者提供编入了生成式AI的软件。”这个界定说明了部署者概念的两个特点:一是,相当多情况下,部署者会以“微调”的方式对研发者的模型进行二次训练。二是,部署者需要将模型以一定的方式“编入”特定的软件或者服务,才能为人工智能利用者(即最终用户)提供服务。《暂行办法》提到的“通过提供可编程接口”(也称API接口)就是一种典型的“编入”方法,部署者通过API接口调用研发者的人工智能模型,从而提供服务。需要说明的是,在实践中研发者和部署者的主体可以合一,即同一主体同时为研发者和部署者;也可以分离,即不同主体分别是研发者和部署者。

(二)生成式人工智能服务提供者在现行法上的定性

现行法上仅有《暂行办法》对人工智能服务提供者进行了一定的定性,但是这个定性是公法上的定性,且具有模糊性。对于GAI服务提供者在私法上的法律性质,《暂行办法》并没有规定。《暂行办法》第9条规定:“提供者应当依法承担网络信息内容生产者责任。”这里的“网络信息内容生产者”来源于公法对信息内容安全方面的规定,具体来源是《网络信息内容生态治理规定》。按照该规定第41条,“网络信息内容生产者”是指“制作、复制、发布网络信息内容的组织或者个人”。在该规定中,“网络信息内容生产者”与“网络信息内容服务平台”相对应存在,后者是指:“提供网络信息内容传播服务的网络信息服务提供者。”前者是内容的提供方、直接来源方;后者并不提供内容,仅为内容的传播提供技术服务。例如,用户在微博上发布了一个帖子,用户是“网络信息内容生产者”,而微博则是“网络信息内容服务平台”。按照《网络信息内容生态治理规定》,“网络信息内容生产者”(以下简称内容生产者)承担的主要义务是不得制作、复制、发布违法或不良内容,“网络信息内容服务平台”(以下简称内容平台)的主要义务则是对平台上内容的管理,履行“信息内容管理主体责任”。需要指出的是,不得制作、复制、发布违法或不良内容和内容管理义务对应的是不同的主体,义务本身也是互斥的。对于自己制作、复制、发布的内容,内容生产者直接承担“不得做出行为”的不作为义务。对于他人发布在平台的内容,内容平台则承担内容管理的积极作为义务,需要进行内容生态治理。

虽然《暂行办法》中内容生产者概念的来源是清晰的,但这是否意味着《暂行办法》明确将GAI服务提供者定性为《网络信息内容生态治理规定》中的“内容生产者”,其义务和责任可以完全套用该规定对内容生产者的规定呢?并非如此。《暂行办法》在第9条规定GAI服务提供者承担内容生产者责任之后,还规定了其履行“网络信息安全义务”,这个责任有可能是较为模糊地对应《网络信息内容生态治理规定》中关于内容平台的责任。除此之外,《暂行办法》在具体义务的设计上,也呈现出在内容生产者和内容平台之间摇摆的模糊状态。

一方面,《暂行办法》第4条第1项明确规定了提供人工智能服务,不得生成煽动颠覆国家政权等违法内容。这个义务与《网络信息内容生态治理规定》为内容生产者规定的不得制作、复制、发布违法内容的义务是极为相似的。另一方面,《暂行办法》第14条、第15条规定了GAI服务提供者的内容管理义务,即在发现违法内容时采取停止生成等措施制止、对使用者采取惩戒措施的义务,以及设立投诉举报机制的义务。这些义务与《网络信息内容生态治理规定》为内容平台规定的义务极为相似。因此,《暂行办法》同时为GAI服务提供者规定了两种在《网络信息内容生态治理规定》中互斥的义务,也反映了《暂行办法》在这个问题上的规定并不明确。

需要指出的是,以上讨论都是在公法语境下进行的,《暂行办法》并未在私法上明确人工智能服务提供者的性质以及相应责任承担:

其一,《网络信息内容生态治理规定》为内容生产者和内容平台设定的义务基本上是公法上的义务,是基于内容安全所做的规定。《暂行办法》同样继承了这点,关于内容生产者责任和网络信息安全责任的规定仍然是在《网络信息内容生态治理规定》设定的公法框架之内,应理解为一种公法责任。相应的,其对生成式人工智能法律性质的界定也是公法上的界定。

其二,《暂行办法》自身的性质也是一部公法规范,其制定依据主要是《中华人民共和国网络安全法》等公法性质的法律,并没有出现《中华人民共和国民法典》(以下简称《民法典》)《中华人民共和国著作权法》(以下简称《著作权法》)等私法性质的法律;其法律责任部分为GAI服务提供者规定的也都是行政责任,而没有规定民事责任。

其三,从立法史来看,国家互联网信息办公室(以下简称国家网信办)等监管部门制定的监管规范规定技术服务提供者的公法义务和责任,而《民法典》《中华人民共和国电子商务法》(以下简称《电子商务法》)《信息网络传播权保护条例》以及最高人民法院相关司法解释则规定技术服务提供者的私法义务和责任。两条立法路径是泾渭分明的,两种义务和责任模式也差距巨大。国家网信办等监管部门并未在其制定的监管规范中对技术服务提供者进行私法上的定性并规定相应义务和责任。因此,可以合理地认为,这种立法路径同样会延续到GAI服务提供者上,国家网信办等监管部门也无意在《暂行办法》这样的监管规范中为GAI服务提供者规定公私法上统一的法律性质及相应义务和责任。在《暂行办法》之外,研讨GAI服务提供者在私法上的定性,需要考虑《民法典》等私法性质法律法规以及相关司法解释上的规定,其核心问题是:GAI服务提供者是否属于网络服务提供者?具体而言,是技术服务提供者还是内容服务提供者?这是第二部分要探讨的内容。

二、生成式人工智能服务提供者在私法上定性的困难

现行私法下,GAI服务提供者在私法上的定性存在困难,其难以归入到现行的内容服务提供者/技术服务提供者的二元体系之下,从而难以被认定为技术服务提供者、内容服务提供者以及新型网络服务提供者。

(一)内容服务提供者和技术服务提供者的二元划分

在现行私法上,关于GAI服务提供者法律定性的讨论,核心问题是GAI服务提供者提供的是内容服务还是技术服务,其是内容服务提供者还是技术服务提供者?内容服务提供者和技术服务提供者的二元划分框架来自现行法对网络服务提供者的区分。所谓内容提供者是指向网络用户提供内容的主体,其提供的内容是其自己主动编辑、组织的。

需要指出的是,内容提供者的提供,一般是指作出了物理意义上的提供行为,通常是将内容“上传”到网络空间的行为。技术服务提供者的概念则强调两个要点:一是其不提供内容,而是提供技术服务,包括接入、缓存、信息存储空间、搜索以及链接服务等。二是其对内容的中立性,并不主动对传输或存储的信息进行编辑、组织或者修改。借用信息论的术语,内容提供者是“信源”,而技术服务提供者则是“信道”。

在上述区分基础上,立法者为其规定了差异极大的义务和责任。就内容提供者而言,内容是其主动编辑、组织和提供的,应由其自己负责,造成侵害他人权益的,承担直接侵权责任,包括赔偿损失责任。对于技术提供者而言,则为其规定了避风港规则,使得它可以在满足一定的条件下,不承担赔偿损失责任。这个条件并不苛刻,主要是在知道或者应当知道网络用户利用其服务侵权时,采取必要措施制止。特别是在收到权利人合格通知时,需要采取必要措施制止。同时,避风港规则在私法上还豁免了技术服务提供者对平台上内容的一般性审查义务,其不需要事前审查平台上内容是否侵权。发现技术服务提供者平台上侵权内容的责任由权利人来承担。权利人发现侵权内容后,以通知的方式让技术服务提供者进行处理,通知中应当包含足以定位侵权内容的信息,通常情况下是一个网络地址。避风港规则为技术服务提供者提供了很好的保护,很大程度避免了其为平台上海量的第三方内容承担赔偿损失责任,有力地促进了互联网产业的发展。

由于技术服务提供者在私法上义务和责任显著低于内容提供者,相关主体必然都追求其被定性为技术服务提供者而非内容服务提供者。当问题来到生成式人工智能的场景下,GAI服务提供者是内容服务提供者还是技术服务提供者也就成为十分重要的问题。

(二)生成式人工智能服务提供者难以被定性为技术服务提供者

GAI服务提供者的法律性质如果是技术服务提供者,那么就可以进入“避风港”。但是,从概念涵摄、侵权责任承担和避风港规则适用的角度来看,GAI服务提供者均难以被界定为技术服务提供者。当然,并非所有情况下,GAI服务提供者都不能定性为技术服务提供者。当生成内容明显来自使用者或第三方时,例如使用GAI进行摘要、翻译的场景下,GAI服务提供者是技术服务提供者。

其一,在大部分场景下,生成的内容并不来源于第三方,而是源自GAI服务提供者,这明显与技术服务提供者的概念不兼容,而更接近于内容服务提供者的概念。在生成式人工智能服务中,在大部分情况下,内容的直接来源是GAI服务提供者,主要是因为其训练行为等原因,使得人工智能可以生成侵权内容。因此,有学者明确指出,由于内容主要来自GAI服务提供者,因此生成式人工智能服务不能被视为一种欧盟《数字服务法》所定义的“中介服务”,其提供者不能被视为技术服务提供者而进入避风港。

其二,从现行法侵权责任承担的角度看,技术服务提供者承担的责任是一种共同侵权责任,其与侵权的用户承担连带责任。但在生成式人工智能服务中,存在用户不侵权而GAI服务提供者单独侵权的情况。此时,GAI服务提供者需要独自承担侵权责任。现行法下技术服务提供者承担共同侵权责任的规定无法涵盖这种独立承担侵权责任的情况。

其三,现行法为技术服务提供者设计的避风港规则很难适用于GAI服务提供者。正如上文所言,在避风港规则之中,发现侵权内容的责任是由权利人来承担的。在传统的网络服务中,侵权内容位于技术服务提供者的平台之上,并且通常是公开的。因此,权利人通过公开渠道可以观察到侵权内容,要求权利人承担监控侵权内容侵权的责任存在合理性。同时权利人也可以定位侵权内容,作为通知的一部分发送给技术服务提供者。由于侵权的内容公开展现在技术服务提供者的平台上,法院等外在观察者也可以判断这些侵权内容是否足够明显,从而判定技术服务提供者对于侵权是否属于“知道或者应当知道”,由此决定技术服务提供者是否能够进入“避风港”。但在生成式人工智能场景下,内容的生成并非公开进行,除了下达指令的用户和GAI服务提供者,其他人往往难以通过公开渠道观察到侵权内容。由此产生了避风港规则适用于GAI服务提供者的诸多困难。

首先,权利人难以通过公开渠道获取网络链接等足以定位侵权内容的信息,以作为通知的必要组成部分发送给GAI服务提供者。权利人只能将生成侵权内容的记录作为通知一部分进行发送,而GAI服务提供者收到通知后,很难定位侵权内容,也无法采取避风港规则中最主要的删除等阻断传播之必要措施。其为制止生成阶段的侵权,需依靠过滤技术等必要措施。

其次,权利人很难通过公开渠道监控侵权内容,难以对侵权内容进行取证。这表现在现有的著作权人起诉GAI服务提供者的案件中,著作权人一方往往只能通过伪装为用户,向生成式人工智能下达生成侵权内容的指令,取证证明被告的人工智能生成了侵权内容。这种取证方式面临着一些质疑。

最后,人工智能生成的非公开性,使得外在观察者难以判定GAI服务提供者对于侵权是否属于“知道或应知”,正如有学者所指出的:“除非运用专业技术手段,内部的侵权信息便无法被一个合理的人所轻易知悉。此时的‘红旗’更像是被锁进了箱子,只有服务提供者才拥有打开箱子的钥匙。当任何一个合理的人都看不到‘红旗’时,生成式人工智能服务提供者‘知道或应当知道’的主观和客观状态就难以判定。”

(三)生成式人工智能服务提供者不应被定性为内容服务提供者

GAI服务提供者不能被定性为技术服务提供者,那是否就意味其法律性质是内容服务提供者呢?也并非如此。

其一,从公共政策的角度看,GAI服务提供者被定性为内容提供者,将会导致其承担过重的义务和责任,不利于人工智能产业的发展。正如上文所言,内容提供者需要对内容承担事前审查义务,在侵权的情况下需要承担直接侵权责任。传统的内容提供者,其产生的内容是有限的,内容的数量和较重的义务和责任是相匹配的。在生成式人工智能的环境下,生成的内容是海量的,以ChatGPT在2023年初的生成能力为例,其14天生成的内容相当于人类至今所有书籍内容的总和。对GAI服务提供者而言,要求其对海量的生成内容履行事前审查义务,以及承担内容侵权导致的直接侵权责任(包括赔偿损失责任),显然过重,甚至可以认为是无法负担的。有美国学者进一步指出,由GAI服务提供者承担内容提供者的责任,将会使服务提供者随时可能卷入漫长而又昂贵的诉讼中,这将导致服务提供者采取成本高昂的防范措施,这些措施是中小型创业公司难以负担的。这将影响人工智能产业的竞争生态,导致行业集中度更高。

其二,GAI服务提供者在对内容“控制力”方面与内容提供者相差巨大,不宜被界定为内容服务提供者。划分内容服务提供者和技术服务提供者类型的根本因素是控制力。内容服务提供者因自行上传内容,可以完全控制何种内容的出现,所以对内容负有事前审查和事后移除的义务。技术服务提供者则因内容系第三方上传,其仅提供技术服务,因此不负事前审查义务。在控制力方面,内容提供者对其“上传”行为的控制和GAI服务提供者的“生成”行为控制存在明显不同。前者具有极高的控制力,而后者由于人工智能的复杂性,GAI服务提供者客观上较难控制什么内容被生成。事实上,如果将GAI服务提供者界定为内容提供者,将使得控制力难以再成为划分内容服务提供者/技术服务提供者的依据,从而对现有的二元划分体系造成严重冲击。

其三,在算法相关的部分案例中,法院已经开始突破物理意义上“提供”等于内容提供者这个界限。这种突破主要是发生在搜索服务中,搜索服务提供者会进行“算法自动补足”或者利用算法对被检索网页的内容进行总结,生成摘要置于用户的搜索列表页面。对于算法的自动补足内容和自动生成的摘要而言,搜索服务提供者都是物理意义的内容提供者。但在中美两国的法院,都有判决认定,搜索服务提供者在上述情况下不是内容服务提供者。在中国的“任某某诉百度案”中,原告任某某认为百度提供的采用算法自动补足的相关搜索中,将其姓名与颇具争议的“陶氏教育”机构联系在一起,侵害其姓名权、名誉权。一二审法院都没有支持其诉讼请求。法院认为虽然百度补足了相关词语,但是补足的内容来源于特定时间内用户的输入,因此没有认定百度构成内容提供者。在美国的“O'Kroleyv.Fastcase,Inc”案中,谷歌自动生成了摘要内容。法院认为,虽然这些摘要内容是谷歌创建的,但是这些内容来自第三方网站。法院进一步认为,对第三方网站内容进行摘要是正常搜索服务的功能之一。因此,法院没有认定生成摘要的谷歌是内容服务提供者。在“Dennis Obado v. Ed Magedson”案中,法院也持类似观点。

(四)生成式人工智能服务提供者也不应被定性为新型网络服务提供者

有学者认为,GAI服务提供者不是技术服务提供者,也不宜被认定为内容提供者,应定性为新型网络服务提供者。笔者并不赞同此观点,因为GAI服务提供者可以离线提供服务,在这种情况下,其提供的并非网络服务,不能被网络服务提供者的概念所涵摄。网络服务提供者的本质在于其提供的是一种在线(Online)的服务,是以网络为媒介进行的服务。但是,生成式人工智能服务的特点决定了,其可以通过在线的方式提供服务,也存在离线提供服务的形式,在离线提供服务的情况下,GAI服务提供者不能被界定为网络服务提供者。当网络服务提供者的概念无法涵摄重要的GAI服务提供者类型时,不应将GAI服务提供者定性为新类型的网络服务提供者。

三、超越二元对立:生成式人工智能服务提供者在私法上的新定性

正如上文所述,传统的网络服务提供者概念,特别是内容服务提供者/技术服务提供者的二元划分已经难以适合GAI服务提供者。因此,需要超越内容服务/技术服务的二元划分体系,在私法上对GAI服务提供者进行重新定性。

(一)明确生成式人工智能服务提供者在侵权责任法上新的特殊责任主体地位

虽然GAI服务提供者难以被定性为技术服务提供者,但应借鉴技术服务提供者的立法模式,将其确立为侵权责任法上新的特殊责任主体,并设计适合其特点的侵权责任豁免规则,以实现权利保护和产业发展之间的平衡。

在侵权责任法上,技术服务提供者是特殊责任主体,其享有特殊的责任豁免,这种责任豁免机制即是避风港规则。侵权责任法上为技术服务提供者作特殊规定有以下三个方面的因素:一是技术服务提供者是伴随着网络技术和网络产业的发展而出现的新主体,这种主体的核心特点是其不提供内容,但为内容的传播、分发提供技术服务。技术服务提供者平台上存在着海量来自第三方的内容,其对于这些海量内容的控制力极为有限。二是技术服务提供者是网络产业中的关键主体,是网络产业中资源配置的中心环节所在。因此,对于其义务和责任的设计与整个网络产业的发展息息相关。三是网络产业的发展关系到国家(或地区)在重要新兴领域的核心竞争力,因此相关责任规则的设计必须考虑到产业发展的国际竞争维度。

美国在1998年通过《数字千年版权法》提出避风港规则的重要背景是,美国当时希望在新兴的网络产业国际竞争上居于领先的地位。避风港规则对技术服务提供者的免责机制设计,无疑有助于促进产业发展,增加美国互联网产业的国际竞争力。美国版权局在关于避风港规则的官方报告中指出,国会希望提供重要的法律确定性,使互联网生态系统能够蓬勃发展,而不必担心因其用户的活动而产生的版权侵权责任所带来的潜在破坏性经济影响。我国立法上引入了避风港规则,将技术服务提供者视为特殊责任主体,同样是出于促进网络产业发展的考虑。立法工作者在对《中华人民共和国民法典侵权责任编》相关条款的释义中,多次强调了对技术提供者责任的设计不应该妨碍网络产业的发展,而是应该通过合理的责任设计去促进网络产业的发展。

上述三个因素在GAI服务提供者上同样存在。首先,GAI服务提供者也是随着生成式人工智能技术和产业的发展而出现的新主体。与技术服务提供者相似,其同样面临着海量内容难以控制的问题。GAI服务提供者虽然在物理意义上“提供”了所生成的内容,但对海量内容的控制力极为有限。其次,GAI服务提供者同样是产业中的关键主体,这种关键性甚至一定程度上还要高于技术服务提供者在网络产业中的位置。人工智能服务提供者的义务和责任规则,同样与人工智能产业的发展关系重大。最后,人工智能已经成为国际竞争特别是中美竞争的核心领域,生成式人工智能责任规则的设计也同样要考虑国际竞争的维度。鉴于人工智能产业的重要性,各个国家和地区在规制生成式人工智能时,无不考虑本国产业竞争力的问题。在这样的国际竞争格局下,我国高度重视人工智能产业的发展。2023年5月5日召开的二十届中央财经委员会第一次会议提出:“要把握人工智能等新科技革命浪潮。”《暂行办法》的立法目的中明确该办法是“为了促进生成式人工智能健康发展”。鉴于上述三个相似的因素,应当借鉴技术服务提供者的立法,明确GAI服务提供者也是侵权责任法上新的特殊责任主体,为其设计免责机制。

(二)生成式人工智能服务提供者作为新特殊责任主体应有的免责机制

确立GAI服务提供者为侵权责任法上新的特殊责任主体,其关键在于借鉴网络服务提供者的避风港规则,为其设计有针对性的免责机制。避风港规则的本质是一种“安全港”机制,该机制是指“权威机关在相对原则、一般的行为限制和追责体制下,以具体规则的形式,为受法律约束的社会行为主体指明有限、有条件的合规路径的一种法律技术;当行为主体选择在安全港范围内开展相关活动时,便可获得较为确定的免于被追究违法责任的预期”。简言之,“安全港”机制要求以安全投入换取责任的豁免。需要指出的是,“安全港”机制在各领域普遍存在,适用于网络服务提供者的避风港规则只是其中一种。避风港规则的核心在于为网络服务提供者进入避风港设立条件,在满足条件的情况下,豁免技术服务提供者的赔偿损失责任。这些条件要求技术服务提供者进行安全投入,其中的核心是要求技术服务提供者建立“通知—必要措施”机制,在收到合格通知时候采取必要措施制止侵权。

GAI服务提供者成为侵权责任法上新的特殊责任主体,应当为其设计“安全港机制”,激励其以安全投入换取侵权赔偿损失责任的免除,安全投入应被设计为GAI服务提供者进入“安全港”的条件。进入“安全港”的条件实际上表现为相关主体的“不真正义务”,即这些义务在私法上不是一种强制性的义务,而仅是不履行这种义务,将不能进入“安全港”免责。条件的设计既要考虑保护权利,也要考虑GAI服务提供者的可负担性,以及产业的发展问题,从而实现权利保护和产业发展的平衡。在借鉴避风港规则的基础上,现阶段应考虑为GAI服务提供者规定如下的“不真正义务”(以下简称为义务)。这些条件是并列关系,GAI服务提供者需要同时满足。

其一,设立通知渠道。生成式人工智能提供者,包括研发者和部署者都应该建立一个通知渠道,这个通知渠道可以让权利人发起侵权投诉。这个渠道的位置应是明显的,使得权利人在投入合理的注意力时可以找到。同时,发起通知的程序应该是便捷的,不能为权利人设置不合理的条件或者障碍。这个义务在现行法上有一定的依据,在司法案例中也有一定的体现。

其二,根据通知采取必要措施停止生成或停止传输。当生成式人工智能服务提供者为研发者时,必要措施为停止生成。当生成式人工智能服务提供者仅为部署者,而不是研发者时,其并不实际生成侵权内容而是传输生成内容,其必要措施为停止传输。这个义务类似于避风港规则中的“通知—必要措施”义务,但无论是研发者还是部署者都基本无法采取避风港规则中最主要的“删除”“断开链接”的必要措施。需要注意的是,在避风港规则下,采取必要措施针对的是过去侵权行为的后果,即已经被发现并且被定位的侵权内容。在生成式人工智能场景下,采取必要措施则是面向将来的侵权行为,在于防止人工智能再次生成已经被发现的侵权内容。因此,GAI服务提供者采取必要措施停止生成或停止传输的义务,本质上是一种防范未来侵权的义务。在面临海量内容的情况下,防范未来侵权的难度远高于防范过去侵权的难度。并且,在绝大部分情况下,即使GAI服务提供者采取再多的措施,也无法做到完全不再生成或传输通知中确定的侵权内容。从这个角度而言,对于GAI服务提供者的要求不能是结果主义的,不能因为其采取了必要措施后仍然生成或传输侵权内容,就要求其承担侵权责任。换句话说,在收到通知并采取必要措施的情况下,对GAI服务提供者的归责应坚持过错原则,而非无过错原则。在过错判断上,应以客观主义作为衡量过错的标准,例如现有技术水平标准。因为需要防范未来的侵权行为,GAI服务提供者所能采取的必要措施主要是通过技术措施进行过滤,包括对用户提示词的过滤和对生成内容的过滤。

对用户提示词的过滤义务相对较轻,无论是研发者还是部署者在大部分情况下都是可以负担的。在“新创华诉某科技公司案”中,法院也明确要求作为部署者的被告采用对提示词过滤的方式来实现停止侵权.就生成内容的过滤义务而言,GAI服务提供者在公法上需要履行这种义务没有太大争议,但是在私法上的必要性和后果问题需要再研讨。日本国立信息和通信技术研究所的研究员从防范著作权侵权的角度研究了技术过滤问题,具体而言是防范人工智能输出与训练数据实质性相似的内容。该研究所发现这种内容过滤存在很多技术上的困难,会造成生成内容质量下降。更为重要的是,会导致相关企业运营成本上升从而损害日本人工智能产业国际竞争力的问题。因此,在过滤问题上统一的国际监管很重要。此外,对生成内容进行过滤造成的较高成本,对中小型的GAI服务提供者而言负担更重。考虑到上述因素,至少现阶段,规定GAI服务提供者在私法上对生成内容的过滤义务应该要谨慎。

其三是管理义务,即通过用户协议等方式,约束部署者或使用者的行为,包括告知部署者或使用者不得侵犯他人权利,对严重侵权的部署者或使用者采取惩戒措施。具体而言,就是研发者约束部署者的行为以及部署者约束使用者的行为。必须承认,在人工智能生成侵权内容的过程中,可能存在使用者过错的因素。使用者可能主动要求人工智能生成侵权内容,甚至恶意地突破GAI服务提供者设置的“安全护栏”来生成侵权内容。部署者也有可能故意或者放纵使用者侵权。因此,GAI服务提供者需要对使用者或部署者的行为进行约束,约束的形式主要是用户协议的方式。这里的严重侵权主要包括重复侵权和恶意侵权,后者包括使用者恶意突破“安全护栏”生成侵权内容的行为。GAI服务提供者采取的惩戒措施应该符合比例原则,具有一定的梯度,例如可以包括警告、暂停服务直至停止服务。相比部署者对于使用者的惩戒,研发者对部署者的惩戒应该更为谨慎,特别是决定停止服务时,因为其影响的往往不仅是部署者本身,还会影响到使用部署者的众多使用者。同样,管理义务也有着现行法上的依据,也在司法案例中有所体现。

其四,标识义务。所谓标识,是指对特定内容由人工智能生成进行披露,其目的是让内容的受众知道该内容由人工智能生成。标识的方法包括显性标识和隐性标识。按照全国信息安全标准化技术委员会秘书处发布的《网络安全标准实践指南——生成式人工智能服务内容标识方法》,显性标识是“在交互界面或者背景中添加半透明文字”,而隐性标识是“通过修改图片、音频、视频内容添加的,人类无法直接感知、但可通过技术手段从内容中提取的标识”。标识首先作为一种公法义务而存在,《互联网信息服务深度合成管理规定》和《暂行办法》对此都有所规定。标识在私法上也有重要意义,相关司法案例中,法院认为标识义务在著作权法上是一种“保护性义务”,因为其可以让权利人能够明确认识到生成物系由人工智能生成,进而采取更具针对性和有效的维权措施。这里的针对性和有效的措施主要是指向GAI服务提供者发出侵权通知的方式,要求其停止侵权,从而在源头上制止侵权。需要指出的是,由于标识义务已经是GAI服务提供者应该履行的公法义务,在私法上将其设为一种“不真正义务”,并不会增加其负担。

除了上述条件外,如果GAI服务提供者在明知或应知生成内容侵犯他人权益的情况下,未采取必要措施停止生成或停止传输,就不能进入“安全港”而免责。需要指出的是,这里的明知或者应知侵权,指的是生成的某个具体内容侵权,而非一般性的知道会生成侵权内容。这个规则相当于避风港规则中的“知道规则”,即《民法典》中的1197条。

结语

本文以《暂行办法》的概念界定为出发点,讨论了信息服务场景下,GAI服务提供者在私法上的法律性质问题。《暂行办法》在私法上并未规定GAI服务提供者的法律性质及相应责任。在现行私法体系下,GAI服务提供者难以被定性为技术服务提供者、内容服务提供者和新型网络服务提供者。因此,应超越内容服务/技术服务的二元划分,在私法上对GAI服务提供者进行重新定位。应在考虑权利保护和产业发展的平衡的基础上,参照避风港规则,将GAI服务提供者明确为侵权责任法上新的特殊责任主体,规定以专门的免责机制,有条件地免除其赔偿损失责任。这些条件包括:GAI服务提供者要履行设立通知渠道、根据通知采取必要措施停止生成或停止传输、管理部署者(使用者)的行为以及标识的义务。GAI服务提供者履行了这些义务可以进入“安全港”,免除其赔偿损失责任,其明知或应知生成内容侵权而未采取必要措施停止生成或停止传输的情况除外。

必须承认,现阶段对于GAI服务提供者私法性质乃至侵权责任的立法具有相当难度,这很大程度尚来源于国际上没有成熟的立法可供参考。在中国为网络技术服务提供者的侵权责任立法时,国际上已经有相对成熟的立法供参考,即起源于美国的避风港规则。但是,由于生成式人工智能产业的新颖性,世界范围内对GAI服务提供者侵权责任(包括私法性质)的探索还刚开始。美国、欧盟等人工智能产业较为发达的国家和地区尚未产生有影响力的司法判决,更加没有成熟的立法。这些国家和地区的理论界和实务界也刚开始探讨生成式人工智能服务提供者法律性质是否为网络技术服务提供者,是否可以适用美国的《正当通讯法》230条款和欧盟的《数字服务法》。可以这样认为,国际上关于GAI服务提供者侵权责任还远未形成可供借鉴的成熟立法,美国和欧盟等国家和地区也和中国一样尚在探索中。上述情况对中国而言既是挑战也是机遇,挑战在于相比借鉴成熟立法,自行探索必然更难;机遇在于,前沿性的中国立法,会产生较好的域外的影响力,存在被其他国家和地区借鉴的可能性。

来源:上海交通大学学报哲学社会科学版

编辑:Sharon


来源:知产前沿

相关推荐