姚立|生成式人工智能ChatGPT编造法律案例的风险与启示

摘要:以ChatGPT为代表的生成式人工智能的诞生,标志着人工智能技术的重大技术跃迁,引发法律服务领域的革新实践。生成式人工智能在提升律师生产力的同时,其固有的人工智能幻觉、拟人化等特征易导致法律文书中错误信息和虚假信息的泛滥,引发律师执业危机。“马塔诉阿维安卡公司

以ChatGPT为代表的生成式人工智能的诞生,标志着人工智能技术的重大技术跃迁,引发法律服务领域的革新实践。生成式人工智能在提升律师生产力的同时,其固有的人工智能幻觉、拟人化等特征易导致法律文书中错误信息和虚假信息的泛滥,引发律师执业危机。“马塔诉阿维安卡公司”案(Mata v. Avianca,Inc.)中原告律师因向法院提交ChatGPT生成的虚假案例受到制裁,法院鲜明地指出应用先进技术并无不当之处,但律师应始终恪守职业责任。正确了解新工具的各项特点是律师合理使用的应然前提,生成式人工智能产品与传统搜索引擎具有本质差异,大语言模型决定了生成式人工智能输出错误内容的不可避免性,拟人性是生成式人工智能的主要风险,创造性是生成式人工智能的本质特征。为此,需要明确以人为本的人机关系的关键作用,并且重视律师伦理道德和职业责任在技术变革时期发挥的保障作用,同时律师可以建立一套标准化流程,兼顾提升生产力以及减少技术风险的目标。

一、生成式人工智能应用于法律文书写作的前景与风险

生成式人工智能(Generative Artificial Intelligence,GAI)是一种人工智能形式,擅长模仿、学习和生成新内容,其关键特征包括自我学习能力、创造性以及处理复杂数据集的熟练技巧。它既不同于传统专注于数据分析和模式识别的分析型人工智能(Analytical Artificial Intelligence,AAI),也不同于将来可能出现的具备学习和执行智力任务能力的通用人工智能(Artificial General Intelligence,AGI),GAI介于两者之间,其因创造原创内容和创造性解决问题的能力而脱颖而出,但又因缺乏自主性和适应性无法实现通用功能。自2022年11月30日美国OpenAi公司发布生成式人工智能ChatGPT模型以来,GAI已在内容生产的各个领域引发生产力和生产方式的变革,重塑了人类与技术的交互模式。在法律领域,GAI正在通过协助法律研究和分析、文件自动化处理、诉讼等方式革新实践,重塑法律服务提供方式,并可能改变法律职业的结构和文化。

法律文书是法律实践的基石。它不仅是法律实践的独立领域,也是法律咨询、法庭诉讼、合同谈判、尽职调查等其他所有法律活动进行的基础和前提。法律文书反映了参与方立场、记录法律程序、提供正式信息、明确权利义务,并构成法律辩论和程序的支柱。这些文书不仅是交流的媒介,更是构成了运行中的法律自身。法律文书写作通常包括识别需求、信息收集、结构设计、初稿撰写和审阅修改,要求遵守准确性、逻辑性、正式性和清晰性的专业标准,以确保法律信息的有效传达。这些严格的要求以及法律和案件本身的复杂性使文书写作过程充满挑战,诉讼律师经常将起草动议和摘要列为他们最耗时的任务之一。通过自然语言处理、机器学习等技术,GAI可以帮助律师进行法律研究、自动生成合同、法律意见书等各类文书。GAI可以极大提高律师的生产力,释放更多时间和精力,使其可以专注于更高层次的法律分析和决策,并可为更广泛的客户提供更多服务。

然而,将GAI应用于法律文书写作蕴藏着重大风险。人工智能幻觉(AI Hallucinations),是指人工智能能输出看似合理且连贯的信息,但这些信息与已知数据或现实不完全符合的现象。最常见的是“与事实知识冲突的幻觉”,ChatGPT不仅会输出不存在的“事实”,还会言之凿凿地为这些“事实”提供虚假的依据。错误的信息往往潜藏在若干正确的回答之后,这些自信但不合理和未经验证的回答就会对使用者造成误导和欺骗。特别是对于法律文书这一对事实、法律以及逻辑要求严格的文体,人工智能幻觉所带来的风险是致命的。法律文书上不仅承载着信息,这些信息还具有规范性的效果,这些效果牵涉相关方权利、义务、责任和豁免的确认与变动,导致现实世界中利益的变化。一旦GAI生成的错误信息被纳入法律文书中,轻则出现诸如词汇、标点、段落层面的“低级失误”,有损律师的专业形象,中则出现术语、规则、法律的适用错误引发不必要的争议,重则影响客户合法诉求的实现,有关证据的虚假信息还将导致职业责任、刑事责任的指控以及制裁。

ChatGPT发布后的一年时间,就发生了数起将GAI生成的错误内容纳入法律文书的案例。2023年2月,美国纽约南区联邦地区法院的“马塔诉阿维安卡公司案”(Mata v. Avianca,Inc.)中,两名律师及其律所因提交了ChatGPT虚构的司法意见而受到法院制裁。2023年5月,美国科罗拉多州一名律师的动议因为引用了ChatGPT生成的虚假案件而被驳回。英国《律师协会公报》(The Law Society Gazette)也在2023年5月报道了一起发生在曼彻斯特法院的案例,法院在审理过程中发现民事诉讼当事人援引了四个虚假案件支持其主张——这些案件均由ChatGPT提供。

本文将以“马塔诉阿维安卡公司案”作为研究对象,结合美国实践发展与法律界的评论,研究GAI在法律文书写作过程中的主要风险、应用误区、GAI技术下人机关系的应然模式,探究职业伦理责任在GAI变革中发挥的作用,并提出建立标准化GAI使用流程的建议。

二、“马塔诉阿维安卡公司案”概览

(一)案件背景

马塔诉阿维安卡公司案(Mata v. Avianca,Inc.)可能是首例在司法文书中涉及律师使用GAI撰写法律文书的不当行为的案件。律师史蒂文·施瓦茨(Steven Schwartz)于1992年起获准在纽约州执业,其主要执业领域是人身伤害和工人赔偿法,执业范围仅限于州法院,未取得联邦法院的执业资格。原告罗伯特·马塔(Roberto Mata)于2019年8月27日搭乘哥伦比亚航空公司(Avianca Airlines)670号航班从萨尔瓦多飞往纽约。在飞行途中被金属餐车撞伤,膝盖严重受损,被告阿维安卡公司(Avianca,Inc.)是该航班的实际承运人,和哥伦比亚航公司同属一家控股母公司。

原告马塔聘请史蒂文·施瓦茨律师于2020年7月20日在纽约州最高法院向被告提起初次诉讼。被告母公司阿维安卡控股公司面临严重财务困境,已作为债务人在2020年5月10日根据美国破产法第11章向纽约南区地方法院申请破产,包括被告阿维安卡公司在内的23家附属债务人同时申请破产,原告对被告的人身伤害损害赔偿诉讼因自动停止(Automatic Stay)规则而暂停。

被告退出破产程序后,同原告于2022年1月31日共同签署协议终止原告提起的初次诉讼。2022年2月2日,原告在同一地方法院向被告提起第二次诉讼,向被告主张基于1999年蒙特利尔公约的人身损害赔偿。由于被告成功主张联邦法院对案件的管辖权,该起诉讼在2月23日由纽约州最高法院移送至纽约南区联邦地区法院,由法官凯文·卡斯特尔(Judge Kevin Castel)负责审理。由于史蒂文·施瓦茨律师未取得纽约南区职业资格,原告代理律师变更为其同事彼得·洛杜卡(Peter LoDuca)。

本案的核心争议点在于诉讼时效规则的适用及计算。蒙特利尔公约第35条对诉讼时限(Limitation of Actions)的规定是航空器到达目的地点之日、应当到达目的地点之日或者运输终止之日起2年期间,该条向来是蒙特利尔公约颇具争议的条款之一,有关诉讼时限的法律性质、2年期间是否可变以及诉讼时限对第三方诉讼的影响等等均存在解释分歧。与此相对,法院地纽约州民事执行法与规则(New York Civil Practice Law and Rules)第214(5)条则规定人身伤害赔偿诉讼的诉讼时效(Statute of Limitations)为事故发生之日起3年。

被告在2023年1月13日提出的驳回动议中主张:第一,该起索赔诉讼仅受蒙特利尔公约管辖。第二,蒙特利尔公约第35条规定的2年诉讼时限并非诉讼时效,而是权利人可以根据蒙特利尔公约启动诉讼的先决条件(Condition Precedent)。因此,鉴于本案原告自其抵达之日起2年又5个月后提起本次诉讼,该诉讼不能被受理。第三,航空公司陷入破产程序的事实并不会暂停(Toll)蒙特利尔公约第35条2年期间的计算。

(二)律师使用GAI的决策过程

彼得·洛杜卡律师作为律师出庭,并负责文书的签署和提交,而史蒂文·施瓦茨律师由于提出最初诉状,将继续承担案件的实质性法律工作。

施瓦茨律师是一位拥有30年执业经验的纽约律师,熟稔于处理纽约州法下的争议,但对本案涉及的联邦法律、蒙特利尔公约和破产暂停规则均不太熟悉,也无法通过律所电脑访问联邦判例数据库。因此他将目光转向了新兴发布的ChatGPT,认为这是“一个超级搜索引擎”。

施瓦茨律师将所需检索内容输入对话框,ChatGPT便生成了符合目的的案例引文。虽然他本人无法检索到ChatGPT中的部分案件,但他相信了ChatGPT内容的可靠性,自认为这些案件只是尚未公布或是不在其可访问的数据库中。实际上ChatGPT也无法检索到合适的案件,它只是通过自我学习、创造性以及处理复杂数据集的能力模仿既有的真实案件标题、法院名称、案件编号以及法官和律师姓名创造出颇具迷惑性的虚假案件。也就是说,在施瓦茨律师尚未察觉中,人工智能幻觉的现象发生了。

这些虚构的案件很好满足了施瓦茨律师法律论证所需,在后续提交的书面证词中可以见到,施瓦茨律师并非完全没有怀疑ChatGPT内容的真实性,但当他向其提出质疑时,ChatGPT却“自信地”确认了案件的真实性,辅之以案件的案情摘要作为佐证,并进一步声称这些案件可以在Westlaw和LexisNexis等专业法律数据库中找到。由于施瓦茨律师无法访问上述数据库,验证就此作罢。实际上,一旦施瓦茨律师进入数据库检索,就会发现这些案件根本不存在。

在ChatGPT的帮助下,施瓦茨律师依靠其提供的信息完成了对驳回动议的回应。经过一次延期,在2023年3月1日,洛杜卡律师向法院提交了施瓦茨律师起草的法律文书。

(三)GAI幻觉的内容

被告律师很快发现了这份法律文书的端倪。有5个案例无法检索,还有几个案例带有虚假的法官意见或错误的信息。被告向法官提交的回复意见简况如表1所示。

表1 被告向法官提交的回复意见简况

可以看到,为了有效回应被告的驳回动议,原告律师的论证思路主要是将诉讼时效的适用规则拉回到其熟悉的纽约州法领域,并以破产法的暂停效力作为补充。遗憾的是,面对难以实现的意图,ChatGPT只得以编造的案件予以回应。

法院根据被告的回复作出命令,要求原告律师提交一份宣誓书,附上其引用的案件副本。对此,施瓦茨律师选择再一次回到ChatGPT,经过一次延期,洛杜卡律师于4月25日提交了施瓦茨律师准备的宣誓书,并附上了ChatGPT提供的案件摘要。宣誓书声明除了无法找到Zicherman案以外,将提供其他所有案件的副本或摘录的内容。在施瓦茨律师提供的附件中仅有案件的摘录,并没有提供任何一篇案件全文,该宣誓书对案件材料的来源是含糊的,没有指明任何在线数据库的名称,也没有承认对ChatGPT的依赖。

(四)司法处罚及其影响

法院仍然无法找到这些案件,进一步的调查发现,虽然原告律师提供的这些案件摘录在表面上具有与真实司法判决一致的特征——如引用看似合理的联邦法官小组、可信的案卷序号以及判例——但其文体和推理上的缺陷与常见法院摘要存在显著差异。这清晰地表明了这些案件不可能由美国法院发布。这也就意味着原告律师将处于一个非常尴尬的境地。

“法院面临着前所未有的情况”,主审法官凯文·卡斯特尔在5月4日发布的命令中认为,“原告律师针对驳回动议提出的反对意见充满了对不存在案例内容的引用……原告律师应法院先前命令提交的案例副本中似乎有6起是伪造的司法判决。”法院将根据美国联邦民事诉讼规则第11(b)(2)条和第11(c)条;美国法典第28卷第1927条以及法院的固有权力(the inherent power of the court)对原告律师实施制裁。在同一份命令中原告律师被要求参加6月8日举行的制裁听证会,为自己的行为进行辩解。直到此时,施瓦茨律师似乎才意识到ChatGPT提供的案例可能有误,在5月25日提交给法院的另一份宣誓书中,施瓦茨承认他犯了错误,表示他“不明白[ChatGPT]不是一个搜索引擎,而是一个生成语言处理工具,主要被设计用来生成类似人类的文本回复……我基本没有怀疑这些回复的真实性。”

法官卡斯特尔在随后的制裁意见中声明了他对人工智能技术进步的肯定性看法,“使用可靠的人工智能工具并没有本质上的不当之处”,紧接着指出律师一直以来肩负着确保提交文件准确性的责任,施瓦茨律师及其同事在提交这些不存在的案例时就违背了自己的责任。法院指出,如果施瓦茨律师在被告律师和法院最初提出质疑后就陈明事实,而不是继续坚持这些虚假案例的存在,那么情节就会大不相同。法院认为,施瓦茨律师的行为超出了“客观上不合理”的范围,当他“有意地去忽视”他引用案例中大量存在的不正常迹象时,他的行为就变得不诚实。

最终,法官卡斯特尔对两名律师及其律所实施制裁。法院裁定原告律师的行为具有主观上的恶意,违反了美国联邦民事诉讼规则第11条,原告律师的律所对两位律师的违规行为承担连带责任。他们被处以5千美元连带责任(约合3.6万元人民币)的罚款,并被要求向原告以及在虚构案例中被错误引用姓名的法官通报本法院施加的制裁。法官于同日发布决定,驳回原告诉请,根据蒙特利尔公约第35条,确认原告索赔请求因超过公约规定的2年期间而无法成立。

“马塔诉阿维安卡公司案”引发了连锁反应。法院开始要求律师和自诉原告披露使用GAI起草法律文书的情况,并要求对GAI生成内容的准确性进行单独验证。美国得克萨斯州北区法院法官布兰特利·斯塔尔(Judge Brantley Starr)在2023年6月发布了一项长期命令,要求所有律师必须保证没有使用GAI起草法律文书或突出显示GAI生成的文本以便检验其准确性。宾夕法尼亚州东区法院法官迈克尔·M·贝尔森(Judge Michael M. Baylson)同样在2023年6月发布命令,要求各方律师一旦在向法院提交的法律文书中使用了GAI,就必须披露GAI在准备法律文书过程中的使用方式,以及证明其对法律的每一次引用或论证都已得到验证。此外,威斯康星州州律师协会为会员举办了一场以“ChatGPT人工智能——概述和影响”为主题的网络研讨会,用于传授安全并合乎道德地使用GAI的最佳方式。英国大律师公会也在2024年1月发布了《基于大型语言模型的ChatGPT和生成式人工智能软件的使用注意事项》,帮助大律师了解使用GAI的技术基础和风险,以便其遵守法律和道德标准。

三、启示和建议

(一)了解GAI的本质与局限是正确使用的前提

GAI是一种基于预训练的大语言模型,其基本原理是运用机器学习算法在海量文本数据上进行预先训练,使模型学习语言的通用规律和结构,然后运用统计概率的方法,不断循环预测下一个词语的可能性情况,从而生成顺序文本。当GAI生成的一段文本中的每一个词语都是如此自然,合乎人们通常的预期,那么它看起来就像是由人类编写的,或者至少是由一台能够自我思考的机器编写的,这也就是GAI中I(智能)的由来。就其本质而言,GAI的核心功能就是精准地预测下一个最可能出现的词语,它并不关心真相或准确性等概念,其返回的答案仅仅是一种“统计结果”。

GAI并不是一个超级搜索引擎。施瓦茨律师的错误始于将ChatGPT认定为超级搜索引擎。从GAI的基本原理可以得知,它与搜索引擎具有明显的差异,后者的工作原理是对信息进行索引,为用户返回相关性最高的内容,而前者,则是基于已有的数据生成相关的内容。从回复的内容来看,GAI的回应是基于其训练数据的即时创造,而搜索引擎则返回已经存在的网页链接。从内容的可靠性来看,GAI的生成特性切断了内容和来源的联系,在高度复杂的算法以及海量参数下,人们往往很难理解GAI内部的决策过程或为输出内容提供清晰的解释,无法得知生成内容的来源是百科全书或是娱乐小报,甚至出现内容与来源信息脱节的情况,难以确保内容的可靠性;而搜索引擎提供内容的原始链接,使得用户可以建立内容和来源的直接联系,形成可追溯的信息链条可以确保内容的可靠性。

GAI的大语言模型本质解释了错误内容产生的原因。大语言模型本质揭示了GAI生成的内容是一种基于模型生成的概率答案,并不是一个从既有数据库中搜索确定的固定答案,这决定了GAI必然有可能生成错误内容。GAI生成内容的准确性很大程度上依赖于预训练数据和算法本身。预训练数据质量受到预训练语料库代表性不足以及数据集时效性偏差的影响。而算法偏见、歧视和不平等问题也一直影响着生成内容的质量的准确性。“压缩-解压”机制带来信息内容损耗、基于人类反馈的强化学习带来的偏差、用户错误互动形成的语境坍塌等也是导致生成错误内容的原因。此外,在训练过程中GAI被引导与人类偏好对齐,导致GAI“阿谀奉承”(Sycophancy)行为的普遍存在。GAI是如此期望能够“满足用户的期待”,以至于它并非客观中立地呈现信息,而是判断用户的意图,并不遗余力地通过数据搜集和组合生成讨好用户的内容。正如在马塔案中,虽然数据库中没有合适的案例,但是ChatGPT并没有向施瓦茨律师告知这一令人失望的信息,反而编造了众多有利于原告马塔的虚假案例,帮助施瓦茨律师“顺利”完成法律文书,并进一步帮助其生成虚假案例的内容摘录,最终招致法院制裁。

GAI的拟人化特性(Anthropomorphism)是一项主要风险。GAI的设计给人留下了用户正在与具有人类特质的对象进行交互的印象,这样的拟人化互动能减少人机之间的“陌生感”,增进“亲切感”,进而产生“信任”,这份“信任”就可能表现为用户不假思索对GAI生成内容的确信。因此,英国大律师公会在《基于大型语言模型的ChatGPT和生成式人工智能软件的使用注意事项》将GAI的拟人化特性列为第一个关键风险。因为在当前阶段,GAI不具有任何相关意义上的人类特征,没有情感和意识,无法进行思考、推理、自我批判,GAI生成的内容也只是庞大数据之上的统计结果,将GAI与人类智能相混淆只能带来危害。施瓦茨律师在交互中误认为ChatGPT是具有人类特性的对象,向其确认虚构案例的真实情况,将自己的法律义务、职业操守、个人荣誉寄托在对机器生成的回复以及机器本身的信任上,无疑是荒谬的。

GAI的“创造性”是其本质特征。GAI中的G(生成式)是其区别于传统AAI的关键特质,也是其“创造性”的来源。得益于海量数据的训练基础,GAI生成的概率答案不仅是对现有内容的重组或复制,还能建立跨学科间的广泛知识链接,从而生成新颖的内容,包括新的理论框架、新的产品或新的方法。这决定了GAI生成内容创新性的本质特征。内容创新和内容错误则可以视为一体两面的现象,主要受制于目的、环境、文体等具体情境中对准确性需求程度的不同,例如商业广告策划对准确性的需求程度极低,需要更多创意,避免对现有广告的抄袭;而法律文书则对准确性提出极高的要求,这是法的安定性的必然要求。施瓦茨律师向以创新性为特征的ChatGPT寻求以准确性为标准的司法判例,无异于缘木求鱼,得到令人失望的结果也就在所难免。

以上特性揭示了律师在使用GAI过程中的多种风险和使用限制,但这并非意味着GAI参与法律文书写作弊大于利,诸多国内外研究给予其积极评价。问题的关键在于,GAI的使用者应当根据其职责和任务权衡使用GAI的潜在风险和挑战,清楚自己行为的目的,负责任地使用GAI。

(二)坚持以人为本的人机关系模式,明确GAI在人机协作中的智能副驾角色

面对GAI为代表新一轮生产力变革,应当坚持人本主义立场,以人之主体性处理与GAI的关系,将人的独立、自由、尊严、全面发展作为核心。在人机关系中,需要明确人类的决策和创造力的不可替代性,人应当处于主导地位。GAI作为协助者,其作用是扩展人类的能力,而不是取代人类的判断。就人类与GAI的关系而言,“其本质还是人与物之间的关系。”以人为本的人机关系模式可以有效克服GAI生成错误内容的危害性,GAI生成的内容只是人类作出决策的众多参考信息中的一部分,人类决策者将对信息进行综合评估,并考虑其他非量化因素,如伦理、社会影响和个人经验,从而确保最终决定的准确性和有效性。施瓦茨律师在法律文书撰写过程中完全依赖ChatGPT,将其提供的信息“作为他实质性论点的唯一来源”。这就导致了人机关系的“倒置”,正如法院所述,“施瓦茨律师及其律所在提交由ChatGPT创建的不存在的带有虚假引用和引证不存在的司法意见的材料时,便放弃了自己的责任。”将个人法律义务、职业操守、个人荣誉寄托在对机器生成的回复以及机器本身的信任上,实际上把是GAI与自己等同比较,“人作为主体的超越性就遭到破坏,自我地位的降低随之而来。”人决定的自主性也遭到削弱,使人异化为工具的传声筒,沦为技术的附庸。

明确GAI的角色是实现高效和有意义人机协作的关键。GAI在人机关系中应当担当“Copilot”(“智能副驾”或作“助手”)的角色。Copilot是微软推出的一款人工智能产品,但其准确描绘了GAI理想的角色定位。Copilot的原初含义来自航空领域,指的是副驾驶员,即与主驾驶员(pilot)一同工作,在飞行中共同负责飞机的操作和管理。副驾驶员在飞行过程中不仅是主驾驶员的助手,还是在紧急情况下的支持者,确保飞行的安全性和效率。这一角色的特征和职责使得它可以作为理解人类与GAI关系的一个有力隐喻。就目标而言,在飞行中,主驾驶员和副驾驶员共享相同的目标——安全、高效地到达目的地;在人机关系中,人类与GAI共同工作,以实现特定的目标,如提高工作效率、解决复杂问题等,彰显了共同努力达成目标的合作精神。就互补能力而言,副驾驶员具有与主驾驶员相似的技能和训练,但在实际飞行中可能会担当不同的职责,以互补主驾驶员的能力;在人机关系方面,GAI补充人类的能力,特别是在快速提供基于数据的见解和建议、生成新的概念、设计或文本、开展跨领域知识链接、执行重复任务和识别模式等方面,而人类则提供思考、评价、批判、反思、决策等人类独有的能力,并主导人机协作的程序。就沟通和协调而言,飞行安全要求主驾驶员和副驾驶员之间有着密切的沟通和协调,以确保每一项操作都是基于共同的理解和协商;在人机关系方面,人类与GAI的有效协作同样需要良好的沟通机制,人类需要能够理解GAI的建议和输出,GAI则需在人类的指导下进行调整和学习。就监督和支持而言,副驾驶员在必要时提供监督和支持,确保飞行操作的正确性和应对紧急情况;而人类对GAI的监督确保GAI操作的正确性和安全性,人类可以干预GAI的操作,以防止错误或不当行为。将GAI定位为智能副驾的角色强调了其作为人类活动的辅助和增强工具的概念,是人的对象化的智能器官,旨在通过人机合作最大化利用其潜力,同时确保人类保持对活动的主导和控制。这种关系模型强调了人机之间的合作、互补性和共同目标的追求,同时也体现了对安全、适应性和灵活性的共同重视。

提升用户技术素养是实现有效人机协作的关键。为了优化人机之间的协同作用,通过针对性的教育和培训措施提高用户对GAI技术的理解和技术熟练度至关重要。主要包括教育用户如何有效地与GAI交互,如何评估GAI生成内容的准确性和可靠性,以及如何识别和避免潜在的偏见和误用。在马塔案后,威斯康星州律师协会为会员举办了一场以“ChatGPT人工智能——概述和影响”为主题的网络研讨会,用于传授安全并合乎道德地使用GAI的最佳方式。2023年12月英国公布《人工智能司法工作人员指南》,用于指导司法工作人员理解人工智能的主要风险和问题以及如何避免在使用过程中发生这些风险和问题。英国大律师公会也在2024年1月发布了《基于大型语言模型的ChatGPT和生成式人工智能软件的使用注意事项》,帮助大律师了解使用GAI的技术基础和风险,以便其遵守法律和道德标准。

(三)以律师伦理道德与职业责任作为基础保障

律师的伦理道德与职业责任应当作为应对GAI变革的基础,伦理规范应成为防范GAI风险的重要准则。虽然GAI提出的问题可能很新颖,但至少有一些道德答案是不变的。正如马塔案中法官卡斯特尔在制裁意见中所述:“技术进步是司空见惯的,使用可靠的人工智能工具提供帮助并没有本质上的不当之处。但现有规则对律师施加了把关作用,以确保他们提交的文件的准确性。”律师的职业道德与责任是其实现社会价值和维护社会正义的基石。诚信、尽责、专业是律师职业道德的关键部分。诚信要求律师在所有职业活动中都必须保持最高水平的诚实和信用。这意味着律师在与客户、法庭以及第三方交往时,应确保所有的陈述、文件和证据都是真实、准确无误的。诚实信用的原则禁止律师进行任何形式的欺骗或误导行为。尽责要求律师全心全意地为客户服务,尽最大努力保护客户的法律权益。这包括及时响应客户的需求、恪守律师与客户之间的保密义务以及在提供法律服务时尽可能利用自己的知识、技能和资源。专业性要求律师不仅拥有必要的法律知识和技能,而且在其职业行为中体现出高度的职业操守。这包括在所有情况下都保持专业的态度,尊重客户、法官、对手律师以及其他法律专业人员。专业性也要求律师在行使其职业职责时,遵守相关的法律、规则和职业准则。

在马塔案中,施瓦茨律师通过向ChatGPT咨询来弥补自己并不具备美国联邦法规、蒙特利尔公约、美国破产法相应领域法律知识的事实,无疑违反了专业性要求;未经审查即向法院提交ChatGPT生成的虚假案例,无疑是不尽责的;在法院提出质疑后,仍然隐瞒事实掩盖真相,无疑是不诚信的;其办案同事洛杜卡以及律所缺失对法律文书的核查无疑也违反了尽责要求。一系列违反律师职业伦理道德的行为不断扩大了ChatGPT错误内容的影响,最终招致法院的制裁,法院援引联邦民事诉讼规则第11条规定,指出“在准备文书的过程中未采取必要的谨慎”构成了对司法管辖权的滥用,还援引了纽约职业行为规则第3.3(a)(1)条“律师不得故意向法庭做出虚假事实或法律陈述,或未能纠正律师先前向法院作出的重要事实或法律的虚假陈述,以及纽约职业行为规则第5.1条,律师事务所和直接主管的确保遵守义务。换言之,“新科技的产生并非意味着以往法律规范的全面倾覆,”良好的遵行现有的律师职业伦理准则,将在很大程度上保障GAI在法律文书写作过程中的可靠性和有效性,实现科技向善。

(四)制定标准化策略优化GAI应用流程

为了提升GAI在法律文书撰写中的效率、准确性和可靠性,实现人机协作过程中的劳动分工和行动整合,开发一套指导原则和标准操作流程(Standard Operating Procedures,SOP)至关重要。这套流程应详细说明如何选择和使用高质量的提示词(Prompts)、如何有效地利用GAI生成的草稿以及如何对GAI生成物进行后续的人工审核和修改。标准操作流程还应包括对于GAI使用范围的明确界定,确保律师能够在适当的情况下利用GAI技术,并在需要人类专业判断和细致审查的情况下进行人工干预。通过建立这样一套标准操作流程,律师可以更系统、更高效地利用GAI技术进行法律文书的撰写工作,同时最小化因使用GAI技术而可能引入的误差和风险,确保法律服务的专业性和可靠性。

结语

具备对自然语言的理解与响应能力的GAI展现出草拟诉状、撰写案件摘要及其他法律文书方面的应用潜力,可以极大提升律师的生产力,重塑法律服务提供方式。但其固有的幻觉现象则会为律师的执业活动带来重大风险。马塔案中施瓦茨律师对GAI生成内容的轻信和依赖为自己、同事及律所带来法院的制裁。马塔案带来的启示是应用新技术的前提是了解其本质以及局限,人机关系应当以人为本,将人的独立、自由、尊严、全面发展作为核心。此外,在技术变革引发的不确定时期,应当重视伦理道德和职业责任发挥的保障作用。在未来,可以建立一套可靠的标准化流程,实现在应用GAI提升生产力的同时,将技术可能带来的误差和风险最小化。

来源:上海市法学会一点号

相关推荐