摘要:生成式AI技术谬用治理,无法脱离对提供者的刑事归责考察。在必要性上,归责的进路,必须能满足处罚适正审查。在归责进路选择上,帮助犯的进路降低了刑法的道德信誉,因而不经济;过失犯的进路仍停留在决策式AI的规制思维,因而无效;“行刑联动”的不作为犯进路,不仅能够提升
生成式AI技术谬用治理,无法脱离对提供者的刑事归责考察。在必要性上,归责的进路,必须能满足处罚适正审查。在归责进路选择上,帮助犯的进路降低了刑法的道德信誉,因而不经济;过失犯的进路仍停留在决策式AI的规制思维,因而无效;“行刑联动”的不作为犯进路,不仅能够提升刑法的道德信誉,贯通技术理性与规范理性,而且保证了刑法的谦抑,应被肯定。在不作为犯归责进路的具体展开上,归因的判断,应将风险升高融入结果回避可能性考察,避免陷入“不可解释性”的窠臼;提供者没有必要以“自残”的形式表达对法规范的忠诚,作为可能性需考虑成本。归责的判断,不必在归因后,再进行客观归属考察,只需在前置法中找到提供者保证人地位的根据。
一、问题的提出
在特化型AI向着泛用型AI演进的过程中,生成式AI技术无疑是具有里程碑意义的技术范式。以ChatGPT为代表的生成式AI技术,初步具有了“通用问题解决者”的能力,正以难以想象的方式与速度改变着人们的生活,例如:在金融领域,生成式AI能够支持金融机构开展营销自动化、客户关联关系挖掘、智能风险识别;在医疗领域,一种药物起作用的各种变量的精确组合,人类科学家无法发现,但只要有足够的数据,生成式AI却可能毫不费力地找到预测相关性;在建筑领域,生成式AI能够帮助建筑师构建数字建筑模型,以便建筑师们完善设计;甚至在军事领域,生成式AI强大的数据处理能力,也有助于炮兵操作员迅速发现目标信息,加快射击速度。
技术革新解放人类生产力的同时,也带来了新的技术性风险。生成式AI强大的“生成”能力配合人机交流方式的去符号化——一定程度上实现自然语言与计算机语言的统一,在帮助法治国良善公民将想象的图景转化为现实作品的同时,也不可避免地降低了AI技术使用的知识门槛,进而被犯罪分子作为工具而谬用,例如:生成式AI能够生成python、javascript等多种语言的代码,为网络攻击行为提供技术支持;生成式AI的信息编写功能能够辅助网络诈骗分子制作网络钓鱼软件,并生成具有智能化特征的诈骗信息;生成式AI的强大数据分析能力能够使得行为人快速掌握有利信息,进而利用信息优势造成证券市场秩序的严重混乱。
尽管人类在衡量便利性和危险性的基础上,对于便利性远远凌驾于危险性的事物,虽然认识到其存在危险性却也一直容忍,但这并不意味着要放任风险的无限扩张。生成式AI技术谬用风险的刑事治理结构中,针对将生成式AI技术当作犯罪工具的谬用者并不存在脱离于古典主义刑法的归责难题,甚至可以说对于技术谬用者的刑事归责路径是“畅通无阻”的,但生成式AI技术提供者的刑事归责则与之相反。虽然根据日常活动理论,缺乏有能力的保护者是促进犯罪发生的重要条件,但这无法说明通过刑法对生成式AI技术提供者实施负面激励就是“善”的。因而必须回答在满足何种条件的前提下,对生成式AI技术的提供者进行刑事归责才能够被评价为适格。此外,即便对提供者进行刑事归责是必要且正当的,但依托海量数据、借助强大算力与具有复杂算法的生成式AI已经具有了一定程度的“自主性”——即便打开ChatGPT或类似的算法模型,也只会看到数以百万计的数字每秒翻转几百次,无从了解其运作方式,设计者创造了它,训练了它,但不知道它在做什么。而这带来了责任的缺口——无人为技术负责,提供者可以凭借算法名义上不可解释的性质来避免自己承担责任。因而,考虑到生成式AI之不可解释性,提供者的不作为与有害生成物之间的因果关系,是否能够凭借“不可想象其不存在”公式进行认定也成了问题。
二、归责的前提:刑事归责进路无法回避的惩罚适正审查
面对生成式AI技术迅猛发展的客观事实,是否应当对生成式AI提供者进行刑事归责,必须考察惩罚的适正性。基于此,判断一个行为是否应当被犯罪化,应当通过五项审查条件,即“目的的合理性”“刑罚的有效性”“刑法的最后手段性”“刑罚的经济性”以及“刑罚的均衡性”。但下文中提到的三种刑事归责进路,其目的均系保障信息网络安全,而信息网络安全显然是值得保护的法益并与宪法不相抵触,故而不必额外强调目的合理性的审查。此外,规制何种刑罚与采取何种刑事归责进路并无关联,也无检讨的必要。故而,我们只需检视经济性、有效性与谦抑性对刑法介入生成式AI提供者的治理会提出何种要求。
(一)经济性审查:惩罚的分配应遵从于刑法的道德信誉最大化
惩罚的经济性要求发动刑法所造成的损害明显小于所欲追求的目的而获得利益时,刑法才可以参与社会治理。但所谓追求刑罚的目的所带来的法益保护价值与“阻碍技术进步所引起的技术更迭迟滞”“国民信心的贬损”以及“国民自由空间的缩小”等损害之间,除去极端情形能够清晰地辨别,绝大多数情况难以进行有效的判断。凯尔森有关自然法的批判是具有启发性的,“被认为是自然法的,或者说等于正义的事物,大都是一些空洞的公式,例如Suum cuique(各人应得的归于各人)……它们容许任何所需要的实在法律秩序看来都是正义的”。缺乏“一般等价物”的所谓衡量,也会面临相同的批评——支持对一个行为犯罪化与反对犯罪化的学者,都能通过“刑罚目的追求带来的利益”与“刑法参与治理带来的损害”之间的比照,论证自己所支持的一方才会产生“盈余”。因而,如果我们要进行经济性审查,就必须找到一个思维工具,能够扮演“统一货币”的角色。根据刑法在整体犯罪控制策略中的地位,惩罚的施加本身就是为了通过公正地评价法治国公民的行为,使得合理的规范内化于心。而当社会认为刑法经常不公正或不能伸张正义时,刑法作为可靠的道德权威的声誉就会受到损害,这种道德信誉的丧失往往会降低人们遵守法律要求的意愿,并破坏刑法使人们内化其规范的能力。正因如此,基于刑罚的目的视角来看,惩罚的分配应当以最大化刑法的道德信誉而展开。同时,如果惩罚的分配过度压制科学技术的进步空间以及不当侵入公民的自由发展空间,这种惩罚的分配原则必然有违法治国公民正义的直觉——经验的应得惩罚便是这种直觉的数据化反映—进而贬损刑法的道德信誉。基于此,经济性的审查得以有效地展开,既然追求刑罚目的所获得的利益就是提升刑法的道德信誉,维护国民对法规范的忠诚,而“阻碍技术升级”“压制国民自由”等损害会降低刑法的道德信誉,即降低国民遵从法律的意愿,那么,针对生成式AI技术提供者的刑事归责进路就应当使得刑法的道德信誉最大化。如果针对生成式AI提供者的不作为进行刑事归责的进路不能增加刑法的道德信誉,甚至会对原有的刑法道德可信度有所贬损,那么犯罪化就不应当被认可。
(二)有效性审查:规范理性应当尊重技术理性
有效性审查的基本要求是,刑罚的适用是否能够有效达成法益保护的目的。这在针对人工智能技术的治理中格外重要。虽然人工智能等新技术并非是完全价值中立的,因为它们绝不仅仅是单纯的技术问题,其设计与发展本身就是法律问题,因而无法脱离法律与价值的判断,进而规范理性对技术理性具有一定的引导作用,但规范理性也应当尊重技术理性,实现两者之间的沟通与协调。针对生成式AI提供者的刑事归责进路,要想实现治理的有效性,就必须尊重生成式AI的基本原理,才能有效发挥规范的指引机能。以ChatGPT为例,其主体架构遵从“基础语料+预训练+微调”的基本范式。基础语料是针对神经网络系统进行预训练与微调的数据质料,语料库的建构只能说是创造大规模预训练语言模型的预备。而预训练旨在从庞大的数据中发现规律,即通过自回归的方式,挑选高概率的字符逐步生成语句。可是,在无监督的情况下训练这种特别复杂的模型,可能会导致生成内容的随机性,很容易产生危险的输出,进而除了在已有标记的数据集上进行指令微调,ChatGPT还引入了全新的模型训练机制,即基于人类反馈的强化学习(以下简称RLHF)。在洞悉原理的基础上,我们便会发现:如果一个规范设计没有考虑到生成式AI技术已经放弃了还原现实而选择化约,根据概率而生成表达,那么这种设计就可能犯下“法规范强人所难”的错误;如果一个规范设计只是忌惮大型多层神经网络的复杂性,忽略了其虽然无法被完全控制但却可以通过训导的方式降低AIGC中的有害生成,在法规范应当给出意见时畏首畏尾,那么法益也无法被有效地保护。正因如此,有效性的审查要求我们在选择针对生成式AI提供者的刑事归责进路时,必须关注其与生成式AI本身的技术特征之间的耦合,而不能只停留在教义学的“舒适区”。
(三)谦抑性审查:发展与安全的平衡
在人工智能法学研究中,不难看到面对新型技术风险而对传统刑法治理效果担忧的表述,例如:“以事后回应为主的古典刑法理论是适应工业时代社会发展需求的产物。面对智能时代日益复杂的社会状况,事后回应型古典刑法理论因无法规制某些新型犯罪而显得力有不逮。”但这是否意味着,传统刑法治理范式的重要特点——刑法的谦抑性应当被淡化呢?我们甚至完全能够找到对刑法谦抑性缓和处理的实定法的立法活动证据——刑法第253条之一侵犯公民个人信息罪便是先于前置法而主动参与社会治理。毕竟,“辅助性原则属于一种刑事政策性的准则,而不是一种强制性规定”。在生成式AI生成内容治理的讨论中,也能看到主张谋求更具震慑力的刑事处罚,提升惩罚力度,进行更有效打击的观点。但事实上,刑事立法者必须平衡好通过国家实现的安全与免遭国家侵犯的安全之间的平衡,而不是将“砝码”只放在一边。本文认为,从政策的侧面(政策导向、寒蝉效应)与企业的侧面(提供者的监管能力、企业声誉与生存)两个角度来看,在对待生成式AI提供者是否进行刑事归责的问题上,刑法的谦抑性审查仍应当被坚持。当然,继续支持刑法谦抑性在生成式AI技术提供者是否应当被刑事归责这一问题上的审查要件地位,并不代表着当前置法治理乏力,无法有效规制时,刑法不能发动。
一方面,在与政治结伴的漫长旅程中,法律既要独立于政治而存在,却又必须与政治相伴而行。2023年7月13日,由国家互联网信息办公室、国家发展和改革委员会、教育部等七部门联合发布的《生成式人工智能服务管理暂行办法》(以下简称《办法》)第3条明确规定,“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”“包容审慎”,已经说明了政策偏向,即生成式AI作为“技术奇点”来临前的重要人工智能产品,事关我国人工智能技术能否实现弯道超车,应当对技术的发展持有包容的态度,绝不应当出现“动辄就管,一管就死”的不良生态。此外,生成式AI具有巨大的产业前景和经济发展促进能力,科技公司不仅可以直接向C端用户提供服务,而且也能让带有通用色彩的模型根据行业特征进行打磨,进而将服务拓展至B端用户与G端用户。而技术本身的创生性特征,又能使得人们在进行技术性行动时,发现技术研发者起初未能想到之处,进而促进技术的深层次发展。正因如此,刑法的前置法况且对于生成式AI技术都必须“包容审慎”与“鼓励创新”,那么以痛苦为本质的刑罚,就更不应轻易地发动。此外,刑法过度的参与治理可能产生寒蝉效应,造成生成式AI科技创新型企业研发行为的“萎缩”。“算法的发展是渐进的,也是困难的。一时的阻力可能导致长期影响,而且随着其他相关算法的进步,某一领域算法的落后将可能无法弥补”。
另一方面,生成式AI技术需要海量的数据、强大的算力与足够的科技人才构造极其复杂的算法,因而在目前,往往只有作为“第三极权力”的大型科技企业才具有研发能力,而这类企业也具有强大的力量支撑算法的治理。正基于此,如果刑法前置法的规范理性所提出的合理监管要求,能够通过企业的算法治理能力转化为技术理性的组成部分,那么前置法便已经取得了很好的治理效果。换言之,如果刑法前置法所代表的规范理性能够与技术理性进行有效的交流,那么,生成式AI系统中的“残余风险”,是否值得专门通过刑法进行消解就值得质疑。毕竟,前置法有效治理下仍存在的残余风险,难道不正是刑法中“被允许的危险”吗?此外,正是因为我们的刑法具有较高的道德信赖度,人们在某些行为的犯罪性模棱两可、恰当性捉摸不定的边缘性案件中,人们会更乐意将刑法作为道德权威去遵守并受其规制。换言之,如果前置法能够取得良好的治理效果,仍然主张对生成式AI提供者进行刑事归责的观点,就是过度的刑法主张,核心刑法本身所形成的高度道德可靠度,会被过度的刑法主张“搭乘便车”,进而使国民认为,违反过度刑法主张的企业具有道德瑕疵。而这显然不利于企业的发展。甚至有更为夸张的说法,即“起诉一个公司,就等于宣告公司死刑”。基于此,企业会以顽强的毅力和代价高昂的策略,寻求摆脱监管和刑法的束缚,所有这些都是为了在偏离监管和执法的同时保持原始的公司声誉,而这意味着生成式AI技术提供者的成本被不当地提升了。从合理保护本国民营科技企业的角度,也不宜在前置法治理效果未明之前过度强调刑法对生成式AI技术提供者治理的参与。
三、刑事归责的进路选择:“行刑联动”不作为犯进路的提倡
有关生成式AI技术提供者的刑事归责进路主要有:帮助犯的归责进路(包含帮助行为正犯化的罪名)、过失犯的归责进路以及行政法与刑法联动的不作为犯的归责进路。因而,应当以上文中的“经济性”“有效性”与“谦抑性”的审查要件,分别检视这三种刑事归责进路,以确定是否存在针对生成式AI技术提供者进行刑事归责的可能。
(一)帮助犯的刑事归责进路:过于昂贵的刑法治理方案
1.帮助犯的刑事归责进路与中立帮助理论
当生成式AI技术被滥用时,恐怕人们最先想到的就是通过共犯的归责理论对生成式AI技术的提供者进行规制,毕竟生成式AI技术客观上帮助了谬用者完成犯罪,例如:当生成式AI技术提供者已经发觉技术漏洞,而不履行修补义务时,不法分子利用漏洞生成有害AIGC生成物,生成式AI技术的提供者属于以不作为的方式对相应犯罪提供帮助,可以考虑成为相应犯罪的不作为帮助犯。此外,我国刑法中的一些帮助行为正犯化罪名,对生成式AI提供者似乎也具有适用的可能。例如传授犯罪方法罪,帮助信息网络犯罪活动罪,提供侵入、非法控制计算机信息系统程序、工具罪等。
虽然上述通过共犯进行归责的论述逻辑,直观上似乎能让人接受,但只要经过简单地思考就会发现,其显然淡化了客观的审查,直接进入生成式AI技术提供者的主观罪责考察。可是,在中立帮助行为的讨论中,中立帮助行为与正犯引起的侵害结果之间的关联并非是不重要的。难以仅凭借引起与被引起的条件关系存在,就直接在侵害结果与中立帮助行为之间建立实质的联系。如果简单套用共犯概念,所有的中性技术的供给行动,若造成了实际损害,均难逃避刑罚的处罚,而这必然面临处罚范围过广的责难,处罚结论也难免背离一般人的正义直觉。面对这种互联网中的技术中立行为,日本法律实务界已经不再孤立地考虑某一个技术谬用者对中立技术滥用的状况,而是要求技术提供者对不特定多数的使用者利用这一技术的状况进行整体性的考量,进而才能得出是否能够通过共犯进行归责的结论。这一观点显然具有实质合理性。
因而,只有在整体性考察上得出某一提供者的生成式AI技术会被不特定多数的人滥用时,对主观罪责的考察才具有意义。可是一旦进行这种整体性的考量我们就会发现,除非生成式AI提供者想进监狱,否则根本不可能放弃最为基本的监管,进而使得其创造的生成式AI被不特定多数的犯罪分子用于违法犯罪活动。因而,通过帮助犯或帮助行为正犯化进行刑事归责似乎缺乏现实可能。除非为了专项技术的治理,放弃上述整体性考察的方案,而这显然不切实际。
2.帮助犯的刑事归责进路与“明知”的认定
虽然帮助故意中的明知,不要求帮助犯知道他人实施何种犯罪以及犯罪的时间、地点等内容,但至少也要明确知道他人将要实施的是犯罪行为。可是生成式AI技术提供者发现漏洞,并不意味着其认识到有人会依据漏洞进行犯罪活动。针对生成式AI技术的提供者,明知的认定标准不应当是“应当知道”。“‘应当知道’意味着行为人实际上不知道,将‘应当知道’强行解读为‘明知’有违行为人的真实意志”。即便在我国副法体系中,确实存在这样的现象,即“应当知道”被视为“明知”的一种情形。但正如刑法需要妥当解释一般,司法解释作为对下级司法机关具有约束力的规范性文件,也需要被解释。完全可以将“应当知道”理解为“综合全案事实,足以断定行为人不可能不知道”。
因而,如果采取帮助犯的刑事归责进路,同时又拒绝松动“明知”的认定——只将“明知”理解为“明确知道”,那么只有在生成式AI技术被谬用达到一定规模量级时,才能勉强地承认生成式AI技术的提供者不可能不知道其所发布的人工智能技术正在被用作犯罪的有力工具。可是,如果要等到生成式AI技术被大规模地当作越轨行为的技术性支持时刑法才能发动,这又过于迟缓,进而无法有效地保护法益。
3.帮助犯的刑事归责进路无法通过经济性的审查
一方面,如果遵守传统共犯理论,严格进行中立帮助行为的客观与主观双层次审查,就会导致——只有当生成式AI技术的滥用已经在AI技术提供者与AI技术谬用者之间达到“心照不宣”的程度时,刑法才能介入。这显然不利于保护法益。道理很简单,平台缺乏源头性治理所带来的风险是弥散性与规模性的。如果前置法的治理效能低下,刑法没有理由不参与到社会治理中。当刑事司法系统无法保护法益时,人们对规范的效力就会产生质疑,这必然不利于刑法道德可信度的维持。正如上文所言,如果使得刑法的道德信誉降低,这种刑事归责进路必然是不经济的。此外,刑法前置法的治理乏力,意味着其不能针对这一领域形成具有约束力的社会道德指南,而刑法本可以凭借其所积累的道德信誉引导有关生成式AI技术科技伦理的形成,可是过于滞后的刑法规制无法达到这一效果。当大量利用生成式AI技术的越轨行为涌现时,人们对生成式AI技术的观感可能会改变,从而有碍技术的进步。
另一方面,如果帮助犯的刑事归责进路(包含帮助行为正犯化的罪名)想要达到“更容易地进行刑法评价”的效果,其就必须舍弃针对“中立技术帮助”的整体性考察标准,转而选择直接根据“中立技术的存在为法益侵害结果做出贡献”的判断,此外,在主观归责上,“明知”的概念也将被塞入“应当知道”的内容。通过对帮助犯的主客观认定“松绑”,进而对生成式AI技术提供者进行威慑,确实能够产生一定的预防效果(利益),但其代价是贬损了刑法的道德信誉——生成式AI技术提供者们“噤若寒蝉”,任何对系统稳定性的担忧都可能转化为“应当知道”的判断素材,而刑法的道德信誉关涉的则是人们对规范的信赖以及将其内在化的动力。换言之,如果一般威慑偏离应得的惩罚,那么在任何情况下,它都会引发由于与大众观点冲突而产生的犯罪控制成本。也就是说,这种偏离会使(刑法本身的)一般威慑更有效,但也会增加另一方面由于道德信誉降低而导致的犯罪控制成本。显然,与威慑带来的不确定一般预防利益相比,那种发自内心地对规范的信赖更具有价值。
(二)过失犯的刑事归责进路:忽略技术理性的刑法治理方案
1.过失犯的刑事归责路径针对的“AI之形象”仍是决策式AI
决策式AI与生成式AI的技术区别在于:决策式AI通过学习数据中的条件概率分布,从而在具体应用中对一个样本归属于特定类别的概率进行判断、分析和预测,主要应用于人脸识别、智能推荐等决策领域;而生成式AI的主要技术系机器学习以及神经网络,生成式AI可以从海量数据中学习,根据输入的信息自动生成新的内容,例如文本、图像、音频、视频等。前者旨在判别,后者则被用于创作。
基于上述两种AI技术的基本原理与应用目的的不同,可以发现其所产生的风险亦存在差异。决策式AI的技术风险主要表现为判别的失败,例如自动驾驶汽车的算法错误地将拖车解读为桥梁,结果导致汽车继续直接朝前开去。可以说决策式AI的判别失败与侵害结果之间的因果关系是直接的,决策式AI的提供者直接对算法的错误所造成的侵害结果负有责任。正是基于这一点,在决策式AI时代,刑法的归责讨论往往以过失犯的架构展开。与之相对的,生成式AI的技术风险主要在于其生成物的内容,例如生成式AI接受使用者的指令后,生成可被用于网络攻击的代码。但生成式AI并不会像决策式AI一样,辨别失败就意味着法益侵害结果的发生。毕竟,生成能够进行网络攻击的代码并不意味着已经发生了网络攻击。问题的关键在于生成式AI使用者出于何种目的发出生成指令。使用者既有可能是出于对新技术的好奇,为检验生成式AI的能力,才发出生成攻击代码的指令。当然,使用者也完全有可能是为了完成一次网络攻击,而将生成式AI当作工具加以利用。
而主张对生成式AI技术的提供者通过过失犯进行刑事归责的进路认为,生成式AI技术提供者的刑事归责实现应当重视监督责任,即以对产品的使用监督不力为责任基础,以过失责任确定刑事责任的归属。这一刑事归责路径的基本图景是:“危害结果发生”→“生成式AI技术在危害结果的发生中起到了重要作用”→“生成式AI技术助力犯罪系监管不到位”→“监管不到位的原因是生成式AI技术的提供者没有履行结果回避义务”。似乎过失犯刑事归责进路的倡导者所提出的一整套逻辑是如此的流畅,但仔细考察就会发现,在“‘危害结果发生’→‘生成式AI技术在危害结果的发生中起到了重要作用’”的过程中,过失犯刑事归责进路的倡导者忽略了侵害法益的结果并非直接由生成式AI所引起,生成式AI技术的谬用者才应当为侵害结果负直接责任。这一疏漏是如此的严重,其直接使得过失犯的归责进路“破产”。
2.过失犯刑事归责进路的阿喀琉斯之踵:过失的帮助行为
正如上文所言,对生成式AI技术提供者的不作为进行犯罪化,必须通过有效性要件的审查,即刑事归责进路的选择必须能够满足规范理性与技术理性的呼应与沟通。本质上,过失犯的刑事归责进路之失败原因,在于这一归责进路并未真正了解生成式AI的技术理性,即生成式AI的最大特征就是“创造”。事实上,刑法真正能参与治理的,只能是生成式AI不确定的生成内容,而不是谁在生成式AI的助力下造成了何种侵害法益的结果。“如果生成式AI的提供者尽到注意义务,就很可能不会生成有害的内容,有害生成物被生成的可能性降低,犯罪分子就十有八九无法利用生成物造成法益侵害”的逻辑思考脉络并无太大的差错。但问题就在于,生成式AI技术的提供者未能履行注意义务产生的是过失责任。这意味着,生成式AI技术的提供者,以不作为的方式“过失地帮助”了生成式AI技术的谬用者。换言之,过失犯刑事归责进路的倡导者所预设的标准模型是“不作为的过失帮助犯”。虽然我国刑法关于是否承认过失的共同正犯存在争议,但基本达成共识的是过失的帮助行为尽管可能与正犯所引起的侵害结果之间具有因果性,但过失的帮助并不可罚。
(三)行刑联动不作为犯刑事归责进路:刑法参与生成式AI提供者治理的最优解
行刑联动的不作为犯刑事归责路径的基本模型为“不作为的前行为+处置的要求+不作为的后行为”。这一刑事归责进路的独到之处在于,前一不作为虽然违反法规范,但仅存在单纯的前行为并不会引起刑罚的发动,而是必要的行政处置要求启动后,行为人实施了构成要件所预设的后续的不作为,才产生应罚性与需罚性的统一。这种规范设计的模式在我国刑法典中并不罕见,例如刑法第139条消防责任事故罪、第276条之一拒不支付劳动报酬罪、第286条之一拒不履行信息网络安全管理义务罪等。本文认为,行刑联动的刑事归责进路完全可以实现经济性、有效性与谦抑性的审查。
1.行刑联动的不作为犯刑事归责进路能够提升刑法的道德信誉
在上文帮助犯的刑事归责路径中,我们能够发现这一路径所面临的问题是,要么处罚太晚以至于不能很好地保护法益,要么松动处罚的限制条件以便惩罚的开展,但这又导致惩罚的不确定,进而降低刑法的可信度。而行刑联动的不作为犯刑事归责进路在针对生成式AI技术提供者治理的问题上,恰好找到了法益保护与人权保障的平衡点,能够使得惩罚的分配有助于提升刑法的道德信誉。
一方面,在行刑联动不作为犯的进路下,惩罚不必等待针对某一生成式AI技术的提供者“整体性地判断”其所提供的产品已经不再中立而被规模化的用于越轨行为,而只要生成式AI技术的提供者未能履行网络信息安全义务,经监管部门责令改正而不改正的,刑罚就有发动的可能。通过刑法的及时介入,在源头上进行治理,进而阻断风险的弥散。刑法的适时发动无疑能确证规范的效力,避免了让松动自我监管的企业双重获利—节省了监管的成本与吸引了“流氓”用户,从而让守法的生成式AI技术提供者与使用者感受到法规范是有效的,并强化守法者阵营因遵从于法而形成的道德荣誉。此外,刑法的适时介入,也有助于生成式AI技术伦理的形成,通过前置法与刑法共同合力形成新技术的社会道德指南。
另一方面,行刑联动的不作为犯的进路又没有过度干涉生成式AI技术提供者的自由空间。生成式AI技术的提供者未履行网络信息安全义务,刑法并不是直接处罚,而是设置了程序性要素—监管部门的责令改正。如果仍未按照监管部门的要求进行漏洞修复、内容优化、模型优化训练等措施,刑罚也不是一定要发动,而是必须具有“严重情节的”才处罚。在整套流程中,惩罚的发动是明确且克制的,通过技管结合的监管方式、刑法前置法的规范化裁决以及监管部门发出整改措施后的检查,完成了对生成式AI技术提供者的规范化训练,使偏离守法轨道的生成式AI技术提供者能有“改过”的机会,而不是直接接受刑法的“金刚手段”,进而增加了提供者对规范的信赖与忠诚。
显然,行刑联动的不作为犯方案能够在人们对新技术的无穷潜能感到担忧时,提供规范的保障,同时避免过度干涉,这无疑提升了刑法的道德信誉,因而其能够通过经济性的审查。
2.行刑联动的不作为犯刑事归责进路实现了技术理性与规范理性的耦合
行刑联动不作为犯的进路不再将刑法规范规制的视野放置在“利用生成式AI技术造成的法益侵害结果”那么遥远的位置,而是将其提前,即关注生成物内容的治理。谁利用了生成物做了什么,在针对生成式AI技术者的刑事归责中,不应当被放置在过于重要的位置,毕竟,具有自由意志的使用者守法与否,是AI技术提供者所无法控制的。等到侵害结果发生,刑法的治理不仅被动,而且归责的判断困难重重。
生成式AI技术本身就是概率革命与统计革命下的产物,对于生成式AI而言,一个词意义是什么,取决于它与其他词语的关系,它的词义也就是所有这些关系的总合,故而有学者将生成式AI技术称之为“语言的存在主义”。但这并不意味着生成式AI的生成物无法被有效地规制,毕竟生成式AI技术所使用的人工神经网络,例如ChatGPT中的transformer模型,可以被塑造,否则ChatGPT所谓的“预训练+微调”的基本训练方法就无法展开了。
正是基于生成式AI的技术理性特点,如果刑法参与针对生成式AI提供者的治理,刑法规范的发力点在于如何引导生成式AI技术的提供者按照法律、行政法规的要求对AI通过反馈机制进行训导。但按照实定法规定进行符合规范要求的训练,并不意味着能够保证每一份AIGC的内容不含有任何越轨因素。某种有害内容的生成具有不确定性,甚至因人而异、因时而异,在某一次对话中出现未必就会在其他对话中出现。这种训导只是概率上降低了有害内容的生成,必然伴随着“残余风险”,毕竟,生成式AI技术虽未达到泛化型AI那样强大的通用能力,但其已经具有了一定程度“自主性”。考虑到这点,生成式AI技术的提供者在已经履行刑法前置法的训导义务后仍存在的残余风险是刑法所不关注的,否则任何技术的进步都要受到刑法的打击,这是令人难以接受的。
由此观之,行刑联动的不作为犯进路的实定法根据——刑法第286条之一拒不履行信息网络安全管理义务罪恰好符合上述生成式AI技术生成物的治理需求,既存的规范设计与新兴技术理性的交融,正体现了这种归责模式充分考虑到智能时代的特点,具有有效性。
3.行刑联动的不作为犯刑事归责进路捍卫了刑法的“最后手段性”
应当承认的是,刑法参与社会治理,决不能忽视刑法不仅服务于“打击”犯罪人,而且首先扮演着“自由的法治国家的自由大宪章”的角色。正因如此,当讨论刑法是否要介入生成式AI提供者的刑事治理时,我们必须认识到,“刑法工具化或者过度犯罪化,是过分迷信刑法的作用的表现,刑法不是万能的,其并不是能够解决一切社会问题”,只有当刑法前置法治理乏力,其规范的效力未得到充分的尊重时,刑法的发动才具有了相对充足的理由。
但所谓的刑法谦抑要求——使用刑罚应当限于其他手段不充分的场合实际上并不容易判断。我们通常赞同这样的观点,即“凡是采取行政处罚等行政措施就能够达到预防和制裁犯罪目的的,就应当尽量适用行政处罚等行政措施而慎用刑罚”。似乎行刑联动的不作为犯的进路并未尊重前置法的治理——刑法前置法的制裁可能对生成式AI技术提供者而言是有效的,而是处罚一种对监管部门的不服从。但这种理解显然没有看到行刑联动的不作为犯进路中,前后作为义务之间的关系。法律规范所要求的义务是一般的、抽象的要求,而监管部门的具体行政行为之要求则是对法律规范科以义务的具体化阐释。因而,生成式AI技术提供者在监管部门介入之前或许还可以以违法性认识等理由搪塞,但是当监管部门已经按照刑法前置法要求其履行作为义务时仍然无动于衷,其已经用自己的行为明确表达了这样的一个立场——拒绝承认刑法前置法的效力。在认识到行刑联动的不作为犯归责模式中前后义务的“抽象—具体”关联后,就不难发现,在前作为义务未被履行后,是否介入前置法的制裁都无关紧要了,因为后作为义务的未履行直接表明了前置法并未被尊重。因而,行刑联动的不作为犯刑事归责进路,不仅未与刑法的谦抑品质相悖,反而有助于发挥行政不法和程序的先行评价机制,防止单独的刑罚处罚阻碍人工智能的技术创新,并且给我们一个明确观察前置法规制无力的微观视角。
4.刑法第286条之一:行刑联动不作为犯刑事归责进路的实体法根据
虽然,行刑联动的不作为犯刑事归责路径,能够通过经济性、有效性与谦抑性的审查,完全可以通过行刑联动的不作为犯的进路对生成式AI技术的提供者进行刑事治理,但问题在于,帮助犯、过失犯的进路均存在实定法上的根据(刑法第27条与刑法第15条),那么针对生成式AI提供者的行刑联动之不作为犯进路是否具有刑法法条的支持呢?显然,既与生成式AI提供者存在一定关联,又符合行刑联动不作为犯进路的刑法条文只有刑法第286条之一。那么,我们只需考察生成式AI技术的提供者是否属于“网络服务提供者”即可。
首先,我国刑法理论界一直倾向于将网络服务提供者分为两类,即(1)以技术为特点的网络连接服务提供者、网络平台服务提供者;(2)以内容为特点的网络内容服务提供者。而《办法》第9条第1款规定,“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务”。显然,“网络信息内容生产者”的定位可以被涵摄入“网络内容服务提供者”的概念范围。此外,《办法》第2条区分了“向公众提供服务”和“未向公众提供服务”两种类型。对于生成式AI技术提供者而言,完全可以只将“向公众提供服务”型生成式AI的提供者纳入“网络服务提供者”的范围。
其次,2019年最高人民法院、最高人民检察院《关于办理非法利用信息网络、帮助信息网络犯罪活动等刑事案件适用法律若干问题的解释》第1条有关网络服务提供者的界定,并未明确网络服务提供者是否包括网络内容提供者,但这并不能否认网络内容提供者作为网络服务提供者的可能。司法解释本身也只是对实定法的解释,而随着社会的发展,解释的内容出现变动也并不奇怪。毕竟,生成式人工智能属于一种重要的网络数据服务类产品,完全可以受到拒不履行信息网络安全管理义务罪的约束。
最后,刑法第286条之一的罪量因素除去第1款第1项,其余均与生成式AI技术相契合。刑法第286条之一的罪量因素包括:(1)致使违法信息大量传播的;(2)致使用户信息泄露,造成严重后果的;(3)致使刑事案件证据灭失,情节严重的;(4)有其他严重情节的。事实上,未经良好训导的生成式AI完全有可能生成分裂国家、煽动民族仇恨、威胁国家安全的违法信息,但问题在于“大量传播”的难以确定性。生成式AI技术的人机互动特点就决定了即便生成了这类信息,也难以一一查证。显然,“致使违法信息大量传播”更适合网络平台服务提供者,而非生成式AI技术提供者。至于其他罪量因素,生成式AI技术提供者均能实现。例如生成式AI技术的漏洞导致在大规模人机交互中,生成物中包含用户个人敏感信息,从而扰乱社会秩序;生成式AI技术提供者未能尽到刑事侦查所需之协助义务,致使危害国家安全案件的证据灭失等。此外,司法解释也完全可以根据生成式AI的技术特征,对“有其他严重情节的”进行续造,例如“生成式人工智能服务被用于实施危害国家安全犯罪、恐怖活动犯罪、黑社会性质组织犯罪、或其他重大犯罪的”。
综上,刑法第286条之一可以为生成式AI技术提供者的刑事归责进路—行刑联动的不作为犯提供实定法上的根据。但生成式AI极度复杂算法具有“不可解释性”,这使得生成式AI技术提供者与有害AIGC生成之间的关联判断成为问题。人类的技术行动面临无人负责的“责任缺口”,正因如此,接下来将进行“弥合责任缺口”的尝试。
四、行刑联动不作为犯刑事归责的展开:归因与归责
行刑联动不作为犯的刑事归责进路真正需要讨论的在于不法的审查,至于主观归责的问题,有赖于“程序性要素”,并不存在判断的困难,毕竟,主观证明机能正是“经监管部门责令采取改正措施而拒不改正”等程序性要素的优势,程序性要素在刑法条文中的存在具有诉讼价值,即降低主观要素的证明难度。因而,针对生成式AI技术提供者,本文重点讨论行刑联动不作为犯进路在客观层面的归因与归责问题。事实上,无论是上述三种进路中的哪一个,均面临因果追溯的难题,即如何确定生成式AI技术的提供者的不作为与有害生成物之间存在“如无前者,则无后者”的因果关系。而不法阶层的考察中,归因是进行归责判断的前提,因而必须首先解决因果关系的认定困难。
(一)归因的判断Ⅰ:结果回避可能性的判断中进行风险升高的考察
1.本质主义与实用主义的对立
自从人们不再满足于符号化人工智能技术转而重视以神经网络和深度学习为代表性特征的连接主义人工智能技术后,因果关系的判断就成为一个难题。对此,存在本质主义与和实用主义的交锋,前者认为第一要务在于弄清楚AI的技术特性,然后才能有的放矢地对技术进行规制,而后者认为彻底弄清楚技术的“边边角角”是无关紧要的,关键在于技术的应用方式以及这些应用所带来的、以权力配置为代表的社会关系变化。所谓“弄清楚技术的特性”实际上就是要走一条“可解释性”的道路,而实用主义的思维更加直接——法律所要控制的是生成式AI之生成物包含有害内容的概率,只要这个概率达到法律的期待,法律没有必要搞清楚具体的技术性特质。实用主义仍然是追求一种“不伤害他人即自由”的理念,而本质主义下的“可解释性”则具有更强的“控制欲”,它不仅要求AIGC内容的适格,而且想窥探生成式AI的“思考”过程。本文认为,基于生成式AI的技术特点,谋求“可解释性”的方案不具有可能性,应当从可解释算法逐步过渡为可控制算法,注重生成式人工智能的鲁棒性,即人工智能发挥作用的稳定性。
2.追求生成式AI的“可解释性”存在技术上的困难
目前,生成式AI的算法是否能够被解释存在争议。生成式AI的巨量参数保证了其强大的生成能力,但令人遗憾的是,生成式AI表现地越好,就意味着算法越复杂,进而算法可解释的难度就越高。诚然,确实有专业技术人员通过逆向工程的方法,观察到神经网络的作用机理,并通过机械可解释方法,以其可视化、可交互的形式来显示其成果。但相较于强黑盒,弱黑盒才可以逆向工程或探测,以确定AI考虑的变量的重要性的松散排名。而这可能只会允许一个有限的和不精确的能力来预测模型将如何作出决定。事实上,目前尚无完整的技术方案对黑箱算法进行全局解释。更何况,生成式AI的不断发展带来的算法复杂性是一个明确的连续函数,但可解释的算法技术的发展是否是一个有着触发点的阶跃函数,我们无从得知。对于这一问题,“可解释性”的赞唱者也没有给出一个回答,即可解释性的算法技术是否会在发展中的某一个时刻迎来了一个“奇点”,而这个触发点使得之后的算法解释“一马平川”,根本不用考虑被解释算法的复杂性。
3.“举证责任倒置”+“可解释性”过于昂贵
“举证责任倒置”与“可解释性”这一套“组合拳”,是希望通过使生成式AI技术的提供者担负起证明其不作为与有害生成内容之间不存在因果关系的责任,进而倒逼生成式AI技术的提供者研发“可解释的人工智能”。但除了上文中提到的“可解释性”本身的技术难题,这一套组合的成本过于高昂。
通过在“副法体系”中增加举证责任倒置的规范设计,倒逼生成式AI技术的提供者将生成式AI技术的发展与可解释的AI研究同步进行,可能造成企业的研发成本过重,进而引起技术的停滞。这种过于细粒的监管要求,可能会使人工智能技术领域的初创企业陷入困境。而如果要等到“可解释性”技术较为成熟时才进行刑法的规制,又可能会造成法益保护的欠缺,进而引起人们对刑法规范效力的质疑,损害刑法的道德信誉。显然,这也是不经济的。
4.应将风险升高融入结果回避可能性的判断
显然,从事实层面,无法通过“可解释性”确定究竟是何种因素导致AIGC内容有害,但是又不能不进行结果回避可能性的判断。毕竟,不作为并不是单纯的无,而是没有实施“一定的被期待的行为”,如果实施该作为,结果大概就不会发生。
针对生成式AI技术有害生成这种典型的技术风险,其风险何时发生具有不确定性。面对这种不确定的风险,刑法要么只能通过设置危险犯来避开因果关系的判断,要么只能运用“教义学上的花招”,即所谓“概率升高型的因果关系”。这种新型因果关系不再追求人类知识所涵盖的“合法则的关联”,例如:我们知道吃一定量的砒霜会死,在A用砒霜向B投毒时,我们才能运用“不可想象其不存在”的公式进行判断,而选择“统计学上的关联”(例如经典的疫学因果关系)。而以ChatGPT为代表的生成式AI技术特质——人工神经网络具有可塑性——能够告诉我们,存在这样一种联系,即对生成式AI大模型投入的反馈训练越多(成本越高),生成质量越高,生成有害AIGC的概率就越低。至此,概率革命和统计革命下的生成式AI技术与刑法中以疫学因果关系为代表的统计学意义上的因果关联理论完成了相遇。
在抛开“结果完全不可避免”与“结果完全能够避免”,这两种在“可能性”的意义上全有或全无的情形,大部分案件的结果避免可能都是以概率的形式存在的,差异无非在于可能性的高低,例如:“如果行为人履行特定义务,结果‘十之八九’不会发生”。显然“十之八九”也不是“全十”,只是表示一种相对较高的概率。可是,虽然我们能够知道反馈训练投入与有害AIGC生成之间存在一种反比例关系,但我们并没有统计学上的数据来表明这种比例的函数关系,以确证“如果生成式AI提供者履行安全义务”是否“十之八九”不会产生有害的生成物。显然,引入风险升高理论很有必要,即只要改变了结果发生的可能性,就表明了行为显示出与结果之间存在关联,在结果方面,行为就包含一个升高的风险;而如果行为没有改变结果发生的可能性,那么在结果方面行为就是“中立的”。将风险升高理论引入结果回避可能性的判断,实际上便是承认了“程度不那么高的结果回避可能性”。这会引起“将法律规定的实害犯转化为危险犯进行处置”的批判。但是这种批判并未站在整个不作为犯的归因与归责中看问题,即较低程度的结果避免可能性也就意味着履行义务成本的增加,例如海滩救生员确实具有不太高的可能性,能够救助离岸较远的落水者,但是代价是他可能也无法再游回。显然,法律不会强求人们履行较低程度的结果避免可能性,因而即便将风险升高带入结果回避可能性的判断中,也不会造成处罚的扩张,因为仍然要进行作为可能性的判断。
(二)归因的判断Ⅱ:作为可能性的双层次审查
1.作为可能性判断中无法回避的“个人能力”
一种常见的作为可能性的判断标准是:必须以一般人或者社会通念为基础来判断。具体的行为人中的可能性是责任问题。但即便这种看法,也必须承认,在个人责任层面仍是要根据行为人的能力进行判断,其所坚持的“一般人或者社会通念”只是为了强调作为可能性是构成要件符合性的判断。
2.不应要求不计成本的“尽到最大的努力”
正因必须在判断中考虑到责任主体的履行义务能力,有学者赞同这样的观点,即:如若生成式AI技术提供者在目前科技水平下已经尽到了最大的努力,仍然不能防范有害AIGC,此时让其承担全部责任,会使其承担过重的责任。可是,“尽到最大的努力”仍是一个不明确的概念,其是否包含了成本的考量?毕竟,正如上文所说,结果回避可能性越低,往往就意味着作为可能性的成本越高,例如如果投入巨量的研发经费,或许并非没有希望将生成式AI的有害内容生成之可能性降到接近于无的程度,但代价是企业经营的彻底失败。显然,我们不能认为这才算是“尽到最大努力,没有了作为的可能性”。“公司不是慈善机构。它们唯一的目的,它们存在的理由,不是任何社会利益,而是利润的积累,实际上是利润的最大化”。因而,应当将生成式AI技术提供者的作为可能性考察分为两部分—技术意义的作为可能性与成本意义的作为可能性。在通过技术意义的作为可能性后,再进行成本意义的作为可能性判断。
3.技术意义层面的作为可能性
对于技术意义层面的作为可能性,应依据具体生成式AI技术提供者的能力展开判断,标准则为:认定没有作为可能性必须达到“即便尽到最大努力,在技术上依然无法防范有害生成物的产生”。但这或许会产生“对研发能力强的企业不公”的担忧,即研发能力弱的企业反而更容易不具有作为可能性,进而在生成式AI产业中形成“劣币驱逐良币”的不良效应。但进行技术意义层面的作为可能性判断并非意味着不考虑成本意义的作为可能性。此外,如果我们从行刑联动的角度来看待这一问题,就会发现,那些连行业一般标准都未能达到的生成式AI技术提供者,完全可以适用行政法上的制裁方案,即“吊销营业执照”或“责令停产停业”。
(三)归责的判断:生成式人工智能技术提供者保证人地位的确定
在进行归因的判断后,归责的判断便可以展开。但问题在于,如何针对不作为犯进行客观归属的判断?在作为犯的客观归属模型中,进行条件说或合法则的条件说的事实层面因果关系判断后,我们仍需要考察“行为是否制造不被允许的风险”“风险是否现实化为实害结果”以及“实害结果没有超出构成要件的保护范围”,才能把这件“作品”算到行为人的头上。因而,自然有观点认为需要在进行不作为犯的因果关系判断后,再进行客观归责的判断,区别只在于客观归属下的辅助判断规则的检验角度调整,例如“风险制造上的检验是消极地未排除或控制既存的风险”。本文认为,针对不作为犯的归责判断不必严格按照客观归属理论展开,而只需认定前置法中是否存在针对生成式AI提供者保证人地位的根据。
1.不必额外进行客观归属的判断
在确定了生成式AI技术提供者的不作为与有害AIGC生成之间存在结果回避可能性,同时提供者具有作为可能性之后,事实上在归责判断上只用考虑提供者是否具有防止AIGC有害内容的作为义务便足够了。作为犯与不作为犯客观归责时的思考方式不同:前者通过行为锁定行为人,故而强调行为的风险,至于谁创造了风险,并不重要;而后者系通过行为人锁定行为,确定作为义务后,保证人不作为,当然可以进行归责。
首先,在客观归属理论中的“行为制造不被允许的风险”的核心,也即“风险升高”的判断,已经在前述结果回避可能性中进行了,因而没有必要重复判断。
其次,客观归属中的“风险是否现实化”的判断中,主要的下位规则包括:(1)规则一:结果并非行为人制造的危险所致,排除归责。例如A打伤了B,而B在治疗期间遭受火灾死亡。(2)规则二:不具备结果操纵可能性,排除归责。(3)规则三:没有引起注意规范保护目的,排除归责。对于规则一而言,我们在讨论生成式AI技术提供者的归责问题时,就已经限定了具体的结果,即“有害AIGC的生成”。在这个意义上,超越的因果关系的判断,在不作为犯中根本不会产生。而规则二中所谓“结果操纵可能性”实质与归因判断中“结果回避可能性”+“作为可能性”的判断差别不大,因而也无需另行考察。规则三所强调的“没有引起注意规范的保护目的”,在不作为犯中也缺乏价值,毕竟,正是刑法的前置法要求不作为者作为。刑法前置法向行为人发出的“应当作为”的命令,就是其规范保护的目的。可见,“风险是否现实化”的下位规则,不是在归因阶段已经解决,就是根本没必要进行判断。
最后,“结果没有超出构成要件的保护范围”对于不作为犯的归责而言也是多余的。对于刑法第286条之一而言,刑法前置法要求的作为义务,难道不正是被刑法自身上升为刑法的义务了吗?那么生成式AI技术提供者未履行刑法义务造成的有害生成,不正是构成要件所要避免的吗?基于此,对“结果没有超出构成要件的保护范围”也没有必要进行额外的判断。
2.确定生成式AI技术提供者的保证人地位
目前直接针对生成式AI提供者的规范文件只有《办法》。虽然《办法》中存在“构成犯罪的,依法追究刑事责任”的表述,但《办法》只是部门规章,其并不足以为生成式AI技术提供者的网络信息安全义务提供前置法根据。这是否意味着在未进行专项立法之前,生成式AI技术提供者对有害生成无法被认定居于保证人地位?答案是否定的。我国已经先后颁布了网络安全法、数据安全法、个人信息保护法等法律法规,已经对人工智能技术风险应对进行了较为详细的义务设定,只不过这些义务较为分散。但这些在刑法前置法中的禁止、命令规范,足以为生成式AI技术提供者的保证人地位提供根据。因而,我们完全可以根据技术理性对网络信息安全义务这一概括性的义务进行解构,先确定应然层面的子义务,然后再去刑法前置法中,为这些子义务寻找实定法的根据。根据生成式AI的技术特点,要保证生成内容的适法性,必须围绕着生成式AI从准备、运算到生成阶段的运行机理展开。例如在生成阶段,应然的义务包括移除义务与报告义务。所谓移除义务是指在违法内容已经生成并发送给使用者时,采取措施在概率上防止同样的内容再次被生成。而报告义务则是指提供者发现使用者利用AI从事违法活动,应当保存记录,并向主管部门报告。而这些子义务完全可以在前置法中找到根据,如数据安全法第29条规定:“开展数据处理活动应当加强风险监测,发现数据安全缺陷、漏洞等风险时,应当立即采取补救措施;发生数据安全事件时,应当立即采取处置措施,按照规定及时告知用户并向有关主管部门报告。”
结语
在生成式AI技术谬用的刑事治理中,针对AI提供者的刑事归责进路应当符合处罚的适正要求。帮助犯的刑事归责进路无论是严格遵守客观中立帮助行为与主观明知的认定,还是对认定标准进行松动,都有损刑法的道德信誉,进而使得这一归责进路不能通过经济性的审查。过失犯的刑事归责进路未能合理辨别决策式AI与生成式AI的技术本质,忽略了造成损害结果发生的是使用者而非生成式AI。进而,在过失犯的归责进路下,生成式AI技术的提供者,只能算是以不作为的方式过失地帮助了AI技术谬用者。现有的刑法根本不处罚过失的帮助犯,这一进路不具有有效性。行刑联动的不作为犯刑事归责进路不仅提升了刑法的道德可信度,并且尊重生成式AI“概率—反馈”的技术理性,并以行刑联动的治理模式捍卫了刑法的最后手段性,因而能够通过刑罚适正的审查。行刑联动不作为犯进路的优越性在于,其不再将考察的链条延伸至“使用者如何使用生成物”,而是阐明了生成式AI技术谬用治理的本质,即AI生成物内容的治理。刑法第286条之一也能够为针对生成式AI提供者的刑事归责进路提供实定法上的“栖所”。在这一进路的具体展开上,归因的判断中,本质主义所赞同的“可解释性”道路不具有可行性。通过“举证责任倒置”+“可解释性”的组合模式也难以被认同,因为它过度增加了提供者的负担。将风险升高融入结果回避可能性的判断具有合理性。即便承认低程度的结果回避可能性,也不会造成处罚的扩大,而是能够在作为可能性的判断中消解。作为可能性的判断应分为两个层次展开,即技术层面的作为可能性与成本层面的作为可能性。在归责的判断上,基于不作为犯的特性,没有必要在归因判断后再次进行客观归属的判断,而只需考察是否存在前置法的禁止规范或命令规范,为生成式AI提供者的保证人地位提供法律根据。
来源:思想者笔记