武长海

360影视 动漫周边 2025-04-17 07:46 2

摘要:AIGC著作权侵权主体认定须关注技术自主性和多方参与对侵权结果的共同作用,明确“人”在责任承担中的核心地位。将AIGC服务提供者前后端行为划分为直接侵权与间接侵权,为侵权行为认定提供科学分类依据。然而,法律适用中,“避风港”规则仅能切断传播,不能为权利人提供实

利益平衡视角下AIGC服务提供者著作权侵权的认定

武长海:中国政法大学民商经济法学院教授、博士生(后)导师

内容提要

AIGC著作权侵权主体认定须关注技术自主性和多方参与对侵权结果的共同作用,明确“人”在责任承担中的核心地位。将AIGC服务提供者前后端行为划分为直接侵权与间接侵权,为侵权行为认定提供科学分类依据。然而,法律适用中,“避风港”规则仅能切断传播,不能为权利人提供实质性保护,“实质性相似+接触”因忽视技术生成的复杂性易致利益失衡;司法裁判中,细化的权利类型致权利吸收、遗漏或错判,责任分配不确定性增加。此外,技术监管与经济成本的限制使司法效果也难以实现。因此,引入利益平衡理念,以债权保护方法和绝对权保护方法构建AIGC服务提供者侵权认定的二元结构。通过多层次的侵权认定机制,结合动态“接触”的认定、合理注意义务的履行和责任豁免等措施,实现权利保护与技术发展的平衡。

关 键 词

生成式人工智能是一项能够模仿人类思维和行为,通过理解上下文进行对话、解决问题、编写代码和生成个性化内容的创新型技术应用。自OpenAI公司发布代表性成果ChatGPT以来,生成式人工智能迅速渗透商业领域,成为历史上用户增长最快的应用程序之一。与传统搜索引擎不同,生成式人工智能所生成的“答案”并非基于现存数据库内容,而是通过自主生成的方式创造的全新信息,这成为其法律风险的主要来源。随着全球关注度的提升,如何在推动生成式人工智能技术创新的同时有效管控法律风险成为重要议题。欧盟采取风险分级管理方式,通过严格的要求与执行机制倡导“负责任的人工智能”,以此强调公共利益与保护个人权利。在国内,生成式人工智能服务的法律规制也逐步加强。2023年7月,我国国家互联网信息办公室联合七部门发布《生成式人工智能服务管理暂行办法》,明确了生成式人工智能风险控制的基本框架。然而,人工智能生成内容(AI-Generated Content, 以下简称AIGC)服务所引发的问题不仅涉及风险控制,更涉及如何在权利人、AIGC服务提供者、AIGC服务使用者与社会公众之间实现利益平衡。本文所研究的AIGC服务提供者,主要是指利用生成式人工智能技术提供生成式人工智能内容服务(包括通过提供可编程接口等方式提供生成式人工智能内容服务)的组织、个人,其中包括技术提供者等主体,内部不作进一步区分。

AIGC技术的快速发展对传统著作权法提出了严峻挑战。在国内外司法实践中,大量因AIGC引发的著作权纠纷涌入法院。例如,美国出现诸多类似案件,但是这些案件还处于庭前动议或证据开示阶段,尚未形成有效判决。相比之下,我国司法实践已经取得突破性进展。2024年2月8日,全球首例AIGC服务平台著作权侵权案由广州互联网法院作出一审判决(以下简称“奥特曼”案),该案判定AIGC服务提供者(平台)承担著作权侵权责任。该判决已生效,为未来的法律责任认定提供了重要的实践依据,也为利益平衡视角下的责任分配探索奠定了基础。

学界对“AIGC服务提供者著作权侵权问题”的研究,主要涉及以下方面:一是AIGC服务提供者的法律地位具有特殊性,二是AIGC服务提供者的“过错”认定,三是AIGC服务提供者侵权责任边界研究,四是AIGC服务提供者的版权注意义务研究。由此可见,学界已经关注AIGC服务提供者著作权侵权的主体、过错、责任边界等问题,但是仍然存在探讨空间。首先,对AIGC服务提供者的侵权类型研究不足,输入端与输出端的著作权侵权行为有待区分。其次,根据现有法律规范,AIGC服务提供者是否承担法律责任以及承担何种类型的法律责任,学者间存在较大分歧,理论与实践的衔接存在困难。最后,AIGC服务提供者责任的司法认定与人工智能产业发展之间利益平衡的矛盾有待解决。基于此,从利益平衡视角研究AIGC服务提供者著作权侵权的认定具有重要的理论价值和实践意义。

基于AIGC的生成机制,不宜运用规制传统网络著作权侵权行为的法律规范分析其问题。我国法律目前已经构建了涉及网络服务提供者、用户和被侵权人的传统网络著作权侵权的认定框架。相较之,AIGC著作权侵权具有非人类创作、自主化生成等特征,责任主体的认定存在复杂性:一是AIGC技术本身是否可以成为侵权主体的问题;二是AIGC服务提供者、AIGC服务使用者与技术以“合力”促成侵权结果,引发了技术创新与权利保护之间的利益冲突问题。因此,明确AIGC著作权侵权主体的认定标准不仅是维护著作权法秩序的现实需要,更是保障技术创新与社会利益平衡的重要前提。

AIGC技术的自主性使得技术本身成为利益冲突的焦点。一方面,AIGC技术生成创新内容,为社会创造巨大经济和文化价值;另一方面,AIGC技术的自主性意味着无人预先知晓生成内容的最终样态,不论是从事算法设计行为的AIGC服务提供者,还是作出服务指令行为的AIGC服务使用者,都难以预知著作权侵权行为的发生。AIGC技术因而具备著作权侵权“工具”的特征。不可否认,若将AIGC技术作为著作权侵权责任主体,则可以有效减轻AIGC服务提供者的责任负担,但将引发利益冲突。例如,著作权人权益保护的需求如何在现行法律框架内得以实现?如何有效防范AIGC服务提供者利用技术“中立性”逃避责任?

同时,将AIGC技术作为著作权侵权责任主体的做法,缺乏法律支持和理论依据。在大多数国家的现行法律规定中,技术系统不被视为能够独立承担法律责任的主体,而是由其开发者、运营者或用户承担相应的责任。这种归责模式源自于“人类中心主义”观念,法律责任只能由具有法律行为能力的自然人或法人承担。诚然,AIGC技术的自主性行为是否可能使AIGC技术本身成为著作权侵权责任主体尚存在较大争议。一方面,国内学术研究和司法实践大多数反对将AIGC技术本身作为著作权侵权责任主体。这一观点背后有着深厚的法律文化根基,即传统的法律框架强调法律主体须具备“责任能力”,而目前的技术系统尚未具备独立从事法律行为的能力。另一方面,尽管有一些学者尝试从拟人化的角度探讨是否可以赋予生成式人工智能主体地位,但是这一观点面临诸多局限。一是拟人化意味着法律应赋予生成式人工智能类似自然人的权利和义务。这不仅需要法律规则的巨大变革,还要求对生成式人工智能的行为进行精确的法律界定,在现有法律框架下很难操作。二是现行法律规定通常依赖于人去判断行为的意图、过错等,而在技术系统中人为判断很难有效应用。因此,在否定AIGC技术本身作为著作权侵权责任主体的可能性时,应从人类主体的角度进行分析与归责。

AIGC著作权侵权主体应首先定位于“人”。在生成式人工智能全生命周期中,人的因素主要体现在以下方面:一是人设计生成式人工智能算法,二是人汇总加工数据并投喂至生成式人工智能,三是人指令生成式人工智能输出内容,四是人将生成内容进行传播。其中,AIGC服务使用者作为人机交互的直接操作者和生成内容的驱动者,在整个侵权行为链条中扮演了重要角色。其不仅在某种程度上决定了输出内容,而且在内容传播过程中推波助澜。

用户通过AIGC服务生成内容后,其利益需求体现在两方面:一是希望利用AIGC技术提升效率、节约成本;二是在生成侵权内容时,希望通过法律规则免除侵权责任。诚然,用户行为的自由性与内容输出的不可控性之间存在天然矛盾。如果仅因AIGC技术自动生成的内容而追责用户,可能抑制技术的应用;但完全免除用户责任又难以保障著作权人的合法权益。然而,AIGC服务使用者以“侵权主体”的身份定位又太过苛责。在事实层面,AIGC服务使用者发出的指令和AIGC服务的生成能力共同作用于侵权内容。在不能区分贡献度且AIGC服务使用者没有主观诱导生成侵权内容的情况下,侵权内容主要的作用力来自于AIGC技术本身的生成能力,而生成能力取决于其在数据训练阶段是否“学习”过被侵权作品。在法律层面,AIGC服务使用者与AIGC服务提供者之间往往通过用户服务协议等形式成立合同法律关系。通常,AIGC服务使用者有获取无著作权争议内容的权利,AIGC服务提供者对此应承担相应的义务。因此,AIGC服务使用者出于合同信赖利益承担侵权责任是不合理的。当然,不能忽视用户在AIGC的生成过程中对输入内容的选择和方向的指导作用,故应探讨用户在责任划分中的权重问题。所以,应明确AIGC服务使用者与AIGC服务提供者的互动机制以及合理归责标准,平衡用户创作自由与著作权人利益保护之间的冲突。

AIGC服务提供者的法律地位应被独立视之。AIGC服务使用者与AIGC服务提供者之间的角色分工并非传统意义上的简单互动,而是呈现出一种动态的“身份互换”。具体而言,AIGC服务提供者在技术的设计和运营中直接影响生成内容的性质和质量;而AIGC服务使用者作为输入指令的主体,虽触发了内容的生成,但在多数情况下,其对最终生成结果的掌控力较为有限。这种角色分工更加支持将AIGC服务提供者作为著作权侵权的主要责任主体。一方面,AIGC服务提供者不同于传统的网络服务提供者。以百度公司的文心一言为例,它主要提供人工智能问答服务,同时也具有信息存储空间、搜索、链接、自动存储、提供网络自动接入服务等功能。但是,因AIGC技术具有自主性,AIGC服务提供者对生成内容实属难以控制。另一方面,AIGC服务提供者也不同于网络内容提供者。由于生成内容并非单纯的用户行为,而是技术自主性和用户输入指令共同作用的结果,AIGC服务提供者在内容生成中的算法设计、数据训练及模型优化等行为,深刻影响了生成内容的方向和质量。因此,相较于传统的网络著作权侵权责任体系,在AIGC著作权侵权情境中,AIGC服务提供者应被视为负有直接责任的主体,AIGC服务使用者在生成内容的过程中则相对中立,更多充当触发行为的执行者。这种“身份互换”使得AIGC服务提供者在侵权认定中的地位显得尤为特殊。

AIGC服务提供者在推动技术创新与商业模式多样化的同时须承担内容监管义务,这就意味着其在侵权内容传播中的被动参与可能引发复杂的法律责任。AIGC服务提供者防范生成著作权侵权内容的能力是利益冲突的重要方面。AIGC服务提供者的技术监管能力和AIGC服务使用者行为的不可预测性之间的矛盾,使得AIGC服务提供者很难完全掌控生成内容是否侵权。因此,为平衡AIGC服务提供者与AIGC服务使用者之间的利益冲突,明确AIGC服务提供者的责任边界至关重要。第一,立法应对AIGC服务提供者的监管义务作出清晰界定,包括其对生成内容的审核责任和对AIGC服务使用者行为的管理义务。第二,应区分AIGC服务提供者在侵权行为中的主观过错程度与技术可行性,避免不合理地扩大责任范围。第三,制度设计需要充分考虑技术发展的阶段性和AIGC服务提供者的经济承受能力,确保责任分配既不阻碍创新,也不损害著作权人合法权益。总之,在AIGC服务提供者与AIGC服务使用者利益冲突的复杂背景下,责任分配的合理划定是实现AIGC技术发展与著作权保护之间利益平衡的关键举措。

AIGC服务提供者著作权侵权认定须清晰界定行为类型,再探讨该类行为的法律认定困境。这种类型化思维可以更好地明确AIGC服务提供者的法律义务,为构建著作权人与AIGC服务提供者之间的利益平衡机制提供清晰的理论依据。

类型化是指对具有共同性质、特征的事物进行概括而形成某种直观且具体的类别。而法律研究中的类型化是指在经验的基础上,将经常或重复发生的、具备相同构成要件的行为进行类型化区分。这种类型化的思维方式既可以发挥预测相似案件发生的基本逻辑与最终结果的功能,也可以形成类似行为的处理方法,进而形成“经验法则”。AIGC服务提供者在数据训练和内容生成的不同环节中,可能涉及多种形式的著作权侵权行为。根据其在侵权行为中的参与程度和行为特征的不同,可将其划分为直接侵权行为和间接侵权行为两种类型。

1. 直接侵权行为

AIGC服务提供者的直接侵权行为是指其在未获得合法授权的情况下,主动参与或实施了侵犯他人著作权的行为。主要包括内容输入端和内容输出端的直接侵权行为。第一,输入端的直接侵权行为,主要表现为自动化数据挖掘行为。它是指通过一套程序定位、提取并以一定方式整合相关数据的行为模式。自动化数据挖掘行为是人工智能发展的关键技术支撑,然而其极易引发侵权。一是该行为将他人内容转化为机器可读性语言,其中涉及大量私人作品,可能侵犯他人复制权、改编权或翻译权。二是该行为将传统的“人产生知识”转变为“机器产生知识”的模式,虽然可显著地降低知识发现的成本,提升社会整体知识积累的效率,但是未经法律规范的技术使用行为可能对私人利益和公共利益造成双重冲击,需要通过法律和技术手段予以平衡。另外,自动化数据挖掘行为引发的利益冲突还体现在AIGC服务提供者追求训练数据广泛性与合理使用数据之间的对立。一方面,过于严格的数据使用许可条件可能限制生成式人工智能的训练效率和创新能力;另一方面,过于宽松的监管规则可能损害著作权人利益。第二,输出端的直接侵权行为,主要表现为生成内容的相似性侵权,即AIGC与受著作权保护的作品在内容上存在实质性相似。根据相似程度的不同,可具体分为两种:一是洗稿行为,即通过生成式人工智能对已有内容进行语言替换、句式调整等形式的修改,以规避原创性检测,看似生成了新的内容,实际上核心表达与原作品基本一致,侵害了原作品的改编权。二是伪原创行为,即通过生成式人工智能对已有内容进行重组、删改或重新表达,使生成的内容看似是全新的创作,但其实仍是基于他人作品的主要思想或核心内容。与洗稿行为不同的是,伪原创行为不仅在语言层面进行修改,而且可能改变原作品的结构或逻辑,但依然构成对他人作品的实质性篡改,从而侵害他人的改编权。上述行为不同程度地损害了著作权人的合法权益,也使得互联网上充斥着内容雷同的文章,不仅降低了整体内容质量,还影响了信息的真实性和可信度。其中,输出端直接侵权行为的主要利益冲突表现为商业利益的扩张与原创保护之间的对立。因此,应明确AIGC服务提供者的直接侵权责任,维护著作权人的合法权益。

2. 间接侵权行为

AIGC服务提供者的间接侵权行为是指其未履行必要的注意义务,从而使AIGC服务使用者的行为引发著作权侵权的法律后果。从输入端与输出端角度,可具体分为两种:一是未尽合理注意义务的数据训练行为,二是未及时处置已认定为侵权内容的行为。在输入端,AIGC服务提供者可能因未履行对训练数据来源的合理注意义务而引发间接侵权。例如,ChatGPT的训练数据主要来源于三部分:从互联网等公开渠道爬取数据以形成训练数据集合,与第三方合作的数据,以及用户在交互过程中输入的数据。机器学习训练的数据集中包含的未经许可的数据是著作权法所关注的内容。输入端的间接侵权行为的利益冲突主要在于监管成本与技术发展的对立。一方面,过高的监管要求可能增加数据训练集构建的复杂性;另一方面,宽松的注意义务可能导致著作权侵权频发。输出端的间接侵权行为主要表现为AIGC服务提供者未能及时发现并处置明显侵权的AIGC,而该内容已经被传播和使用。这一问题涉及合规要求与创新能力间的矛盾,即过高的合规要求可能抑制AIGC服务提供者的技术创新能力,而完全放任不管则会加剧著作权侵权风险。因此,需要在AIGC服务提供者的技术能力与对内容的监管义务之间寻求平衡,既保障技术发展的自由度,又有效遏制著作权侵权的蔓延。

(二)AIGC服务提供者著作权侵权认定的困境

AIGC服务提供者著作权侵权行为的认定需要明确适用何种法律规则框架和法律后果。诚然,AIGC服务提供者著作权侵权认定在法律适用层面和司法裁判层面均存在困境。

1. 法律规则的适用困境

现行法律主要围绕传统创作行为构建,包括严格责任规则、“实质性相似+接触”规则和“避风港”规则等,往往难以有效应对AIGC技术的复杂性,无法充分实现著作权人与AIGC服务提供者之间的利益平衡,不利于侵权责任的公平分配和技术创新的合理发展。

第一,严格责任规则无法适用。从利益衡量角度分析,严格责任规则的适用应充分考虑AIGC技术的特点及市场影响,在保护著作权人的同时避免过度干预技术创新和市场发展。AIGC服务提供者是否适用严格责任规则,要先解决生成式人工智能是产品还是服务的问题。根据现有观点及实践,生成式人工智能既可能是产品也可能是服务。一方面,美国《侵权法重述》(第3版)将软件分为两类:封装软件属于产品,而为客户定制开发的软件属于服务。有学者认为,生成式人工智能不是产品,原因在于其运行持续依赖提供者的控制。但是,封装软件也可以一直处于提供者控制之下,比如微软公司对其旗下的办公软件持续提供日常的软件更新服务。同样,生成式人工智能的正常运行也离不开AIGC服务提供者持续性地技术更新与支持,这就意味着它也处于控制之下。另一方面,欧盟《产品责任指令》以致损的性质区分:造成物理损害为产品,“源代码”本身缺陷为服务,“源代码”运转为产品。因此,很难准确定性生成式人工智能究竟是产品还是服务。

即使AIGC存在缺陷,也不应对其适用产品责任规则。原因在于:首先,AIGC本身属于表达而非产品。其次,创作者通常不应对其创作的内容承担严格责任。例如,在美国“毒蘑菇”案中,原告因食用被告出版的《蘑菇百科全书》建议的蘑菇中毒,要求出版社承担产品责任。该案中,法院判决原告败诉,认为对表达内容施加严格责任会抑制思想的表达与传播。同样,在“阿特金斯减肥法”案中,法院驳回了针对减肥食品、图书及网站内容适用产品责任规则的请求。因此,尽管AIGC服务提供者对生成内容具有一定的贡献,但若对其施加严格责任将严重阻碍AIGC技术的发展与创新。

第二,“实质性相似+接触”规则的适用困境。在著作权侵权认定中,剽窃、篡改等行为的判断不适用传统的“侵权责任四要件”,而是以“实质性相似+接触”为核心规则。根据《北京市高级人民法院侵害著作权案件审理指南》第10.7条的规定,如果被诉侵权作品与原告作品的相关内容相同或实质性相似,被告在创作时接触或可能接触原告作品,且无法证明被诉作品的合法来源,可以认定构成侵权。

“实质性相似+接触”规则是法律适用过程中的经验总结。例如,在“奥特曼”案中,被诉作品形式上与原作品高度相似,而核心争议在于是否存在“接触”。该案的判断思路为:一是从举证角度,分析涉案人工智能在机器训练过程中是否输入了类似“奥特曼”的数据;二是从经验角度,两件“作品”高度相似可以反推成立“接触”。然而,这种推定方式与当前推动人工智能发展的现实需求可能存在利益失衡。同时,算法自主性与技术黑箱加剧了“实质性相似+接触”规则在AIGC服务提供者侵权认定中的适用困境。AIGC生成过程依赖于复杂的算法,其内部决策机制通常是非透明的“黑箱”,导致生成内容的相似性难以被清晰追溯。即便输出结果与原作品高度相似,也难以明确其是源于算法对特定训练数据的直接使用还是算法自主生成的结果。此外,如果要求AIGC服务提供者对“未接触”进行举证,将面临极高的技术和法律成本,可能过度抑制技术的创新发展和整体进步。

最后,“避风港”规则的适用局限。从网络服务提供者到AIGC服务提供者,立法者从未放弃“技术中立”的立场,目的就是给技术提供者设定“安全阀”或“避风港”。“技术中立”的法律规则设计是对网络服务提供者间接侵权责任的限制,是判定其是否承担民事责任的基本分析工具。著作权法中直接侵权与间接侵权的区分意义在于法律规定了不同的过错条件和标准。其中,著作权间接侵权分两种:一是帮助侵权,即行为人通过出售、出租、展出等形式保存侵权复制品,导致侵权的发生;二是替代责任,即基于特定社会关系的存在,依照法律规定须承担侵权责任。在美国,上述两种间接侵权规则为技术提供者作为第三方责任主体提供了法律依据。我国著作权法对间接侵权的规定仅涉及帮助侵权,未涵盖替代责任。网络服务提供者间接侵权责任的关键在于过错认定。同样,过错也应成为AIGC服务提供者责任认定的基础。如何判断“过错”?根据《民法典》第1197条规定,一是“知道或者应当知道网络用户利用其网络服务侵害他人民事权益”,二是“未采取必要措施”。然而,在生成式人工智能的场景下,侵权内容并非AIGC服务提供者直接提供,难以界定其“知道或应当知道”。此外,即便要求AIGC服务提供者承担对生成内容的审查义务,无论是通过人工审查还是算法审查,经济成本都极高。由此,单纯基于上述规定判断AIGC服务提供者的“过错”存在较大难度。虽然以被侵权人的通知作为依据来适用“避风港”规则在表面上看似合理,但是在实际操作中其法律效果往往难以达成。高度相似内容的存在是客观事实,“避风港”规则的适用仅切断了侵权内容的传播,并未充分保障权利人的利益。在此背景下,AIGC服务提供者适用“避风港”规则显得并非必要。

2. 裁判效果的实践困境

在生成式人工智能的广泛应用下,著作权侵权裁判的实际效果存在不足。这不仅削弱了权利保护的全面性和精准性,也使得司法救济在实际执行中面临多重障碍。

第一,法院在裁判中细化了复制权、改编权、信息网络传播权的侵权行为类型,但这些类型无法涵盖涉及AIGC的著作权侵权行为,不利于全面保护著作权人合法权益。

首先,“复制权”被认为是一种“有载体的传播权”,是“著作权人通过一定的方式使作品以某种物质形式再现出来的权利”。侵害复制权的行为通常表现为“未经许可+复制行为”。然而,在生成式人工智能的运作中,侵权作品的生成过程具有一定的即时性和临时性特征,与传统复制行为显著不同。这些生成内容往往并未被固定在某一介质上,而是依托用户指令即时生成并呈现,一旦用户退出或停止操作,生成内容可能不再以固定形式存在。在这种动态呈现的模式下,作品的即时生成与用户的选择行为密切相关,而非作品的持续固定与传播。其次,改编权涉及对原作品的修改以创作出具有独创性的衍生作品。改编行为是指在保留原作品基本表达的前提下,通过改变原作品的形式创作出新作品。需要注意的是,若改编作品未发表或未被进一步利用,则不构成侵权。然而,改编权的概念非常宽泛,权利保护范围不明确,侵权认定含混不清。这增加了司法判断的复杂性。再次,信息网络传播权是指通过有线或无线方式向公众提供作品,使公众可以在个人选定的时间和地点获取作品的权利。信息网络传播权主要解决的是作品在互联网上传播的控制问题。然而,AIGC的即时生成模式与作品在互联网传播的模式截然不同。信息网络传播权的细化无法全面涵盖生成式人工智能创作过程中所涉及的权利保护需求。最后,权利类型的细化容易引发权利重叠和冲突现象,进而导致不同权利之间的吸收与互相排斥。例如,在“奥特曼”案中,信息网络传播权吸收了复制权导致对复制行为的认定发生了变化。法院在认定时也忽视了生成式人工智能所具有的独特生成特征,未能全面有效地保护著作权人的合法权益。

第二,AIGC服务提供者著作权侵权行为责任承担的裁判效果未必可以有效实现。为平衡权利保障与产业发展,AIGC服务提供者应履行合理的注意义务,助力构建兼顾安全、创新、保护、平衡与包容的人工智能治理体系。所以,AIGC著作权侵权的裁判应坚持法律效果与社会效果相统一。AIGC服务提供者在著作权侵权行为中的责任承担应在促进技术创新与保护著作权之间找到一个平衡点。在现行司法实践中,法院通常要求AIGC服务提供者承担三类义务,否则将负侵权责任:第一类是删除侵权内容和停止生成相关内容。但是,在生成式人工智能的背景下,如何有效预防未来的侵权行为,仍是一个具有挑战性的问题。第二类是AIGC服务提供者应采取关键词过滤等技术性手段,确保用户输入相关关键词时系统无法生成与侵权作品实质性相似的内容。这需要平衡技术可行性与防范效果。第三类是因AIGC服务提供者未尽到其他合理注意义务,应承担损害赔偿责任。根据《生成式人工智能服务管理暂行办法》第4条、第12条和第15条,服务提供者的合理注意义务包括建立投诉举报机制、提供潜在风险提示、设立显著标识。如果AIGC服务提供者未履行上述义务,则应视为存在过错。在损害赔偿的计算方面,如果实际损失或违法所得无法确定,法院应综合考虑以下因素:(1)侵权作品的市场知名度;(2)是否采取了积极有效的技术措施,防止继续生成侵权内容并取得一定防范效果;(3)侵权作品生成的影响范围和社会效应;(4)维权过程中产生的合理取证费用,并结合费用支出的合理性、必要性酌情予以计算。在这一过程中,法院裁判审慎的责任分配与损害赔偿的细化是技术创新与权利保护之间的重要平衡点。

四、AIGC服务提供者侵权认定的利益平衡机制

生成式人工智能技术的快速发展使得AIGC服务提供者的著作权侵权认定问题日益复杂化。利益平衡理念的引入与规则的构建显得尤为重要,既要保障著作权人的权益,又要推动技术创新和行业发展,最终通过机制设计实现多方利益的动态平衡。

利益平衡论是指对所涉利益进行衡量时如何正确处理公共利益与其他利益关系的理论。其强调在衡量公共利益与其他利益关系时,应充分考虑各方利益并合理分配。其中,法律是实现利益平衡的重要手段。侵权责任制度设计的功能在于通过强调“受害人保护”主义,充分发挥预防与制裁侵权行为的作用,从而有效维护受害人的合法权益并促进社会秩序的良性运行。然而,知识产权侵权责任制度设计需要考量市场背景下的竞争策略因素,在著作权法的语境下,即需要考察社会公共利益、创新等功能。因此,应将利益平衡理念融入AIGC著作权侵权认定中:一是明确AIGC服务提供者著作权侵权行为和侵权责任的界限,实现权利保护与创新发展的平衡;二是明确直接和间接著作权侵权的行为类型,合理界定各类行为的法律责任;三是明确多元化的责任承担类型,促进法律效果与社会效果的统一。现行法律规定了民事、行政和刑事三类责任,但在具体适用时需要结合利益平衡理念,避免法律适用的机械化。

具体而言,可引入利益平衡理念,分别运用绝对权保护方法和债权保护方法构建AIGC服务提供者著作权侵权认定的二元结构。在传统民法理论中,绝对权保护方法侧重于恢复绝对权的圆满状态;而债权保护方法则侧重于补偿权利人所遭受的经济损失。这两种保护方法可分别适用于AIGC服务提供者著作权侵权行为的认定和侵权责任的认定。首先,AIGC服务提供者著作权侵权行为的认定遵循绝对权保护方法。当AIGC服务提供者未经著作权人授权且没有合法免责事由时,应认定AIGC服务提供者著作权侵权行为成立。在此情形下,无须证明AIGC服务提供者存在主观上的过错,因为侵权行为本身具有违法性。其次,AIGC服务提供者著作权侵权责任的认定遵循债权保护方法。当法院认定AIGC服务提供者的侵权行为成立时,若著作权人要求损害赔偿则须就AIGC服务提供者存在主观过错进行举证。“使人负损害赔偿的,不是因为有损害,而是因为有过失,其道理就如化学上之原则,使蜡烛燃烧的,不是光,而是氧一般的浅显明白。”此时,“过错”是AIGC服务提供者承担损害赔偿责任的关键。通过引入利益平衡理念构建AIGC服务提供者著作权侵权行为认定和责任认定的二元结构,可以为AIGC服务提供者设定清晰的法律责任框架,能够在保障著作权人利益的同时促进相关技术的健康发展。

AIGC服务提供者著作权侵权行为的认定应以利益平衡理念为核心,结合直接侵权与间接侵权的区分,针对服务链前端和后端的不同特点,以“绝对权保护方法”设计认定机制,协调著作权保护、技术创新与社会公共利益之间的关系,避免简单化的侵权判断影响生成式人工智能技术的发展和应用。

利益平衡理念贯穿于AIGC服务提供者著作权侵权行为认定的全过程。对于前端侵权行为,重点在于通过合理使用规则维护知识共享和技术发展的公共利益。AIGC服务提供者前端的直接侵权行为是自动化挖掘行为,间接侵权行为是未尽合理注意义务的数据训练行为。而对AIGC服务提供者的前端行为应重点评估其是否构成合理使用。这一问题的解决有利于平衡著作权人专有权利与社会整体利益的关系。具体原因如下:首先,合理使用的法律基础和政策取向。合理使用的意义在于平衡使用者、著作权人与社会公众之间的利益,满足社会公众对知识的需求,进而推动整个社会的文化繁荣与进步。当前我国尚未明确规定人工智能数据训练是否构成合理使用,但从政策取向来看,合理使用应在一定条件下适用于数据训练行为。其次,判断合理使用的“三步检验法”与“四要素标准法”互斥的价值取向为数据训练提供理论支撑。“三步检验法”的价值取向更加偏向著作权人权利保护;而“四要素标准法”的价值取向却并非将著作权人的利益放在首位。最后,技术行为与法律问题的再界定。从技术角度看,数据训练行为在许多情况下更接近于“临时复制”,而“临时复制”不产生“独立的经济利益”,在法律上通常不构成著作权侵权。然而,事实上生成式人工智能数据训练的经济价值巨大,不符合“无独立的经济利益”这一要件。为解决这一矛盾,可借助利益平衡理念,通过制度创新明确特定条件下数据训练的合理性。

对于后端内容生成的侵权行为,可创新“实质性相似+接触”规则保护著作权人的核心权益,同时避免阻碍技术发展。首先,“实质性相似”仍然以相似外观直接判断。直接比对生成内容与原作品的外观,以判断其是否存在实质性相似。其次,创新“接触”的认定路径。传统“接触”的认定规则以实质性相似倒推“接触”的存在。这种认定在生成式人工智能技术背景下可能造成误判,因为AIGC大模型生成内容与原作品的相似并非直接来源于复制行为。人工智能大模型通过网络神经深度学习,根据用户指令即时生成内容的方式,与传统意义上的复制行为有所不同。即使生成的内容与原作品存在一定相似,其更接近于即时呈现,而非复制权涉及的持续固定与传播行为。另外,如若司法裁判一直坚持“倒推”认定“接触”的判断标准,类似于“奥特曼”案的诉讼会蜂拥而至,势必会影响生成式人工智能服务的商业运营甚至阻碍整个产业的发展与进步。因此,本文建议从技术流程出发,结合利益平衡理念重新界定“接触”的范围。一是对“接触”的认定应通过回溯到技术实现路径来分析生成过程中的数据使用及模型训练机制。二是运用利益平衡原则审慎裁量“接触”责任。从侵权行为的社会影响、技术治理的可行性等角度分析,避免过于严格的“接触”认定标准抑制技术创新。三是引入动态“接触”认定机制,结合具体技术特点与案例情境更新“接触”认定标准。例如,通过专家论证、技术证据采集等方式科学评估模型生成的内容来源,从而确保裁判结果的技术合理性与法律适用的精准性。

AIGC服务提供者著作权侵权的认定须严格区分侵权行为认定与侵权责任认定。以“债权保护方法”设计AIGC服务提供者著作权侵权责任的认定机制,通过明确责任类型与构建责任分配机制,为生成式人工智能领域的法律适用提供实践路径。

第一,形成多层次的AIGC服务提供者著作权侵权责任的认定机制。首先,在基础性规则设定层面,为AIGC服务提供者责任划分提供清晰的行为准则。设计明确的AIGC服务提供者行为规范,例如形成对数据输入、模型训练及生成内容的规范要求,降低责任模糊性。其次,在技术应用开发层面,为AIGC服务提供者侵权责任认定提供技术支撑。例如,利用区块链等技术手段实现精准溯源、开发智能化监测系统及时预警侵权风险。另外,在技术层面应根据AIGC服务提供者技术能力的不同,设定合理的注意义务,形成动态责任认定机制。最后,在司法裁量层面,要结合社会政策目标综合考量技术特性、社会影响及公共利益,在保障著作权人权益的同时,为技术创新预留足够的空间。同时,建议通过典型案例明确司法裁量的价值导向,为后续同类案件提供参考,避免司法适用标准过于分散或不一致。

第二,在具体的著作权侵权责任认定中明确利益平衡原则的适用。首先,停止损害责任的认定。鉴于著作权的无形性,其损害往往难以精确量化,为平衡对AIGC服务的正常运营的不当影响,停止损害责任的认定须明确侵权行为是否因行为人的过错而引发,避免因无过错行为而对技术创新造成不必要的干扰。其次,删除涉案作品的技术责任认定。应充分考虑技术可行性与经济成本,避免造成技术创新的不当阻碍。人工智能经过深度学习形成的“记忆”很难彻底清除,删除涉案作品可能涉及重新训练大模型,耗费巨大时间与经济成本。为合理分配责任,删除涉案作品的责任认定应设置更高的门槛:一是权利人须证明确实存在侵权行为,并提供足够证据表明损害后果重大;二是行为人的过错是认定责任的关键因素,尤其应审查其是否履行了合理注意义务。若AIGC服务提供者能够证明其已尽合理注意义务则应允许其免责。否则,若技术删除难以实现,AIGC服务提供者可能面临“带病”经营的困境,从而迫使市场机制通过屏蔽掉高风险内容、关闭服务、选择上游服务商时转嫁侵权风险等方式自行调节。最后,赔偿损失责任的认定。赔偿损失责任是对权利人经济利益损害的弥补手段,其认定除须证明AIGC服务提供者存在主观过错以外,还要明确赔偿金额的计算标准。由于著作权侵权损失难以准确估算,赔偿金额可结合以下因素综合裁定:涉案作品的市场知名度与实际商业价值、AIGC服务生成侵权内容的范围和影响程度、服务提供者采取技术措施防范侵权的成本及效果、原告为维权所支出的合理费用等。另外,从利益平衡角度出发,为避免对人工智能技术发展造成不必要的打击,建议设置较低标准的损害赔偿方案。

第三,设置合理的责任豁免机制是平衡创新发展与权利保护的必要手段。一是不可控因素下的责任减免。在AIGC服务提供者已经尽到合理注意义务的情况下,仍因技术或外部因素导致著作权侵权行为的发生,可以根据具体情形适当减轻或免除其责任。二是AIGC服务使用者行为引发的责任减免。在AIGC服务使用者明确违反AIGC服务提供者的规定或擅自生成著作权侵权内容的情况下,侵权责任应主要由AIGC服务使用者承担,而AIGC服务提供者可根据其履行义务情况主张免责或减责。三是产业发展背景下政策宽容的责任减免。为促进人工智能产业的良性发展,针对特定情境下的著作权侵权责任可引入政策宽容机制:一方面,设置试验性应用豁免,对在试验阶段的人工智能技术应用可给予一定程度的责任宽容,以鼓励技术创新和推广;另一方面,政府或行业协会可制定统一的技术规范与责任豁免标准,为AIGC服务提供者提供明确的操作依据和责任边界,避免法律适用的随意性。引入责任豁免机制,不仅能够保护AIGC服务提供者免受不必要的法律责任追究,还能引导著作权人与AIGC服务提供者形成健康的合作关系。

结 语

生成式人工智能技术的广泛应用在推动社会经济发展的同时,也对传统著作权法提出了前所未有的挑战。AIGC服务提供者技术创新与侵权认定的交叉点也是各方利益博弈的焦点。本文基于利益平衡视角构建了一套适用于AIGC服务提供者的侵权认定框架以实现技术创新与权利保护的动态平衡。首先,AIGC著作权侵权主体的认定涉及复杂的利益冲突。当前法律框架尚无法有效解决AIGC服务提供者与AIGC服务使用者之间责任划分的争议,而生成式人工智能“自主创作”特点又进一步加剧了责任模糊性。基于利益平衡理念,司法裁判应综合考虑主体的参与深度、技术能力边界及其对侵权内容的控制力,避免责任分配的片面性。其次,AIGC服务提供者著作权侵权通过区分输入端与输出端行为,明确直接侵权与间接侵权的法律边界。然而,其仍然面临法律适用模糊性、技术复杂性和责任分配不对称性的利益衡量困境。AIGC服务提供者著作权侵权认定规则难以适用严格责任;“避风港”规则仅是切断了传播,权利人并未获得真正的法律保护;“实质性相似+接触”的裁判思路在生成式人工智能背景下存在利益失衡的问题。与此同时,司法实践中权利类型的过度细化可能导致权利的吸收、遗漏或错判。在责任承担层面,现行司法裁判的实际效果难以实现预期目标,既无法完全遏制侵权行为,又在一定程度上对技术创新形成阻碍。最后,以利益平衡理念为核心,通过绝对权保护方法和债权保护方法的结合,构建AIGC服务提供者著作权侵权认定的二元结构。一方面,AIGC服务提供者侵权行为的认定须从输入端和输出端两方面展开:对于前端的数据训练行为,应归为合理使用;对于后端的内容生成行为,应回溯生成内容的技术路径和创新“实质性相似+接触”规则。另一方面,AIGC服务提供者侵权责任的认定以实现多层次的认定机制为基础,适用利益平衡原则从停止损害、删除侵权内容和赔偿损失三个维度进行动态调整。此外,合理的责任豁免机制是应对AIGC著作权侵权责任认定问题的重要补充。

综上,AIGC服务提供者的著作权侵权认定不仅是法律技术问题,更是权利保护与技术发展的平衡艺术。中国式人工智能治理体系应坚持“安全与发展相济、平衡与包容相成、创新与保护相融”的基本原则,为AIGC服务提供者设定合理的法律责任框架,以促进人工智能产业的可持续发展,为全球人工智能治理贡献中国智慧。

咨询邮箱:

zscqip@163.com

投稿网站:

https://zscq.cbpt.cnki.net/EditorHN/index.aspx?t=1

来源:陶都小爱

相关推荐