谁为“幻觉”负责?AI系统杜撰案例,三名律师集体失职丨律新观察

360影视 国产动漫 2025-05-14 10:31 2

摘要:2025年2月24日,美国爱达荷州怀俄明地区联邦法院发生了一起关于律师使用AI工具导致职业责任问题的案例。三名代理律师共同提交了一项书面动议,其中引用了9个判例来支持其请求。然而,法院在审查时发现,8个所谓的判例实际上并不存在。面对这一情况,法官要求律师在庭后

作者丨李德胜

出品丨律新社研究中心

当社会热议“AI律师”的职业变革时,现实法庭正上演着相反剧本:AI系统杜撰案例,三名律师集体失职。

2025年2月24日,美国爱达荷州怀俄明地区联邦法院发生了一起关于律师使用AI工具导致职业责任问题的案例。三名代理律师共同提交了一项书面动议,其中引用了9个判例来支持其请求。然而,法院在审查时发现,8个所谓的判例实际上并不存在。面对这一情况,法官要求律师在庭后提交书面解释,要么证明这些案例的真实性,要么提出合理的辩解。随后,三名律师承认,动议中的案例是由一名律师利用AI工具添加的,而其余两名律师在未经复核的情况下便直接签署了该文件。此事件最终导致法院认定三名律师均违反了《联邦民事诉讼规则》第11(b)(2)条。作为处罚,法院撤销了其中一名律师的代理权限,并对三名律师全部处以罚款。

这一案例反映出AI技术在提升法律服务效率的同时也带来了一些值得关注的问题。随着AI应用的广泛普及,法律行业中因AI技术引发的操作失误事件逐渐增多。在合同自动生成、法律文书辅助撰写以及案例智能检索等具体应用场景中,AI技术与法律实务的结合正在面临诸多现实挑战。

律新社研究中心通过公开信息盘点出国外在AI应用法律领域实践过程中的三大翻车场景,旨在为促进“AI赋能法律”的进程提供多面且辩证的思考视角:

➢ 规范性危机:智能合同的条款黑洞;

➢ 可信性陷阱:虚拟法条的生成迷局;

➢ 伦理性困境:案例检索的认知偏差。

AI凭借快速检索与分析案例的能力,显著促进了法律服务的广泛普及。然而,当客户过度依赖AI生成的结论时,可能会轻视律师的专业判断,进而削弱案件委托的质量。比如,客户使用AI生成的合同给律师审查时,律师可能因合同漏洞过多而陷入“崩溃”。甚至部分客户误认为AI生成即“专业合同”,对律师提出的修改意见产生抵触,甚至质疑律师能力。

Python基金会的安全开发人员Seth Larson在博客中表示,AI生成的漏洞报告中66%为无效内容。类比合同场景,律师常需在“AI垃圾堆中找金子”。如美国中小企业主Damian为节省成本,使用免费模板和AI生成客户协议与合伙协议。但合同因条款模糊、缺乏服务相关条款,导致与客户就工作范围和付款条件发生重大纠纷。AI生成的合伙协议更存在语言歧义和合规漏洞,使企业面临潜在法律责任。

一方面,AI生成的合同往往符合基础法律框架,但可能隐藏关键风险。例如,合同中常见的“合理期限”“行业标准”等模糊表述看似合法,实则缺乏可操作性。曾有案例显示,AI将“不可抗力免责条款”机械套用模板,却未根据《合同法》要求明确双方责任分担比例,导致条款无效。律师需耗费大量时间逐条核查此类“合法但无用”的条款。如在新加坡国际商事法院(SICC)审理的Quoine Pte Ltd v B2C2 Ltd案中,双方因加密货币交易平台的自动化合同系统错误导致汇率计算异常;《Automatic Smart Contract Generation Through LLMs: When The Stochastic Parrot Fails》研究论文中的案例指出,GPT-4尝试将租赁协议转为Solidity智能合约代码,结果出现逻辑漏洞(如未检测到付款条件矛盾)、变量缺失,且与用户提示需求不符。

另一方面,AI无法理解合同背后的商业意图。例如,某股权代持协议中,AI按模板生成“代持人需配合办理变更登记”,但未追问代持目的是规避股东资格限制还是遗产规划,导致条款与真实需求错位。某跨国MCN机构用ChatGPT起草主播合约,AI意外删除“违约条款”,导致头部主播携百万粉丝跳槽另立门户,机构直接损失数百万收入。

此外,AI生成的合同若存在未被发现的漏洞,律师可能承担连带责任。这种“AI挖坑-律师背锅”的模式极大加重职业风险。

AI合同审查技术,尽管近年来取得了显著进展,但仍处于“辅助工具”的角色定位中,未能完全替代人工审查的精细与严谨。这一现状背后,律师在面对AI生成合同时的复杂情绪,成为了技术快速进步与法律严谨性要求之间碰撞的生动写照。技术激进主义倾向于推动边界,追求高效与便捷,而法律领域则坚守着对准确性、完整性和合法性的严格要求。

两者之间的张力,使得律师在享受AI带来的效率提升的同时,也不得不面对其可能引入的误差与风险,从而引发了对于如何平衡技术效率与法律严谨性的深刻思考。因此,AI合同审查的未来发展,不仅依赖于技术的持续精进,更需要在法律框架内寻找技术与人性审查的完美契合点。

当前主流AI法律模型本质上是一种基于统计概率的内容生成工具,而非真正的法律推理系统。当用户提出的法律问题超出其训练数据范围时,这些模型往往会采取一种危险的“观点优先”策略:它们会基于网络上的高赞观点、语义关联性甚至舆论倾向,自动拼接出看似合理实则失实的法律条文。这种机制导致AI生成的法律内容常常出现“观点凌驾于法条”的扭曲现象,严重背离了法律实务中“以法条为依据”的基本原则。

这种现象已经造成了实际影响。哈佛大学法律与技术研究中心发现,AI生成的合同文本每千字平均存在5.3处潜在法律风险点,包括法条引用过时或冲突。而法学论文《The Factuality of Large Language Models in the Legal Domain》指出,未经法律领域预训练的通用模型法条引用错误率达37%,而专业模型通过针对性训练可将准确率提升至81%。1AI生成的错误内容往往披着专业术语的外衣,极具迷惑性,非专业人士很难辨别真伪。这不仅损害了法律文书的严肃性,更可能对司法公正造成潜在威胁。

法律数据库更新滞后或覆盖不全时,AI会通过“数据污染”填补空白。例如,某系统误将失效的地方性法规作为现行法律输出,导致用户依据错误条款起诉。以AI界当红的ChatGPT为例,其在生成法律条文时存在明显的准确性问题,主要表现为两种典型情况:

其一是虚构“高仿”法条,通过文本拼接、删减和概括等手段生成看似合理实则失实的法律条文。欧盟欧洲法院案例显示,AI系统在总结欧洲法院裁决时,生成了不存在的法律引文,包括虚构的《欧盟反垄断法》第28条“市场份额低于10%的企业自动豁免处罚”。该条款与欧盟实际法规(《欧盟运行条约》第102条)完全不符,暴露AI在处理多语言法律文件时的可靠性缺陷。

其二是错位解读或引用“过期”法条,尽管具备联网搜索功能,但其法律数据库更新存在严重滞后性。法国数据泄露案显示,律师在数据泄露诉讼中使用AI工具生成法律摘要,错误解读欧盟《通用数据保护条例》(GDPR),虚构了欧洲议会从未通过的隐私法修正案。AI生成的摘要声称“数据控制者可在未经同意情况下共享用户信息”,与GDPR第6条合法处理数据的基本原则直接冲突。该错误导致诉讼策略失效,案件被迫重审。

在人工智能技术深度赋能法律行业的背景下,必须审慎把握技术创新与职业伦理的平衡关系。ChatGPT等AI工具频繁出现的“法条幻觉”现象,深刻揭示了当前技术在法律专业应用中的本质局限:一方面,AI确实能够显著提升法律检索和文书处理的效率;但另一方面,其基于概率预测的内容生成机制,与法律实践所要求的严谨推理和精准适用存在根本性差异。这一技术特性决定了AI只能作为辅助工具,而绝不能替代法律从业者的专业判断。

法律职业群体需要清醒认识到,技术工具犹如一把“双刃剑”——在享受效率红利的同时,更要警惕其可能带来的法律适用偏差风险。法律职业共同体应当建立严格的技术使用规范,既要充分发挥AI的辅助价值,又要坚守法律人的专业立场,确保每一个法律结论都建立在真实有效的法律依据之上,维护司法公正的底线。

2024年,斯坦福大学研究发现主流法律AI工具(如Lexis+ AI、Westlaw AI)在回答法律问题时,17%的查询结果包含虚构或错误内容,部分错误案例的引用甚至完全脱离真实判例,这一发现无疑为AI技术在法律领域的广泛应用拉响了警报,揭示了技术进步背后潜藏的信任危机。2

聚焦于具体案例,2023年6月,美国纽约南区联邦地区法院审理的Mata v. Avianca案件就是一起因“AI幻觉”现象而遭受司法处罚的案例。以下是该案例的简要概述:2023年3月1日,Mata的代理律师提交了一份反对动议的声明,其中引用并摘录了据称刊登于《联邦判例汇编》《联邦补充判例汇编》以及Westlaw数据库中的司法判决。然而,事后查明,这些所谓的判例实际上并不存在,而是由ChatGPT生成的。当被告律师提出质疑,指出无法找到这些判例时,原告律师未能采取必要的核实措施,且在法院明确要求提供完整案例文本的情况下,仍然提交了由ChatGPT生成的虚假“判例”。对此,法官认定原告律师的行为严重违反了职业道德准则,不仅误导了法庭,还浪费了宝贵的司法资源,因此决定对其处以5000美元的罚款。

类似的风险事件在澳大利亚也时有发生。2025年1月31日,澳大利亚新南威尔士州联邦巡回及家事法院审理的一起移民法案件中:人工智能不仅“协助”某位律师虚构了联邦法院的判例名称,更进一步编造了判例的“原文”细节。该律师在未能及时察觉这一错误的情况下,向法庭提交了包含这些虚构信息的书面陈词。针对这一事件,法院认为该律师不仅违反了《新南威尔士州法律职业统一行为规则》第19.1条中不得误导法庭的基本原则,而且其后续采取的补救措施——即未经许可的单方面联系法院——也违背了第22.5条关于禁止律师私自与法庭进行单方面沟通的执业规定。

据路透社报道,过去两年内,全美至少有七起案件中的律师因类似行为受到质疑或纪律处分,这不仅给诉讼双方及法官带来了极大的困扰,也引发了公众对新技术应用效果的广泛担忧。

当AI生成的虚假判例被法庭揭穿时,“AI+法律”的发展路径不得不引人深思:虽然技术能够极大缩短检索时间,提高效率,但它无法替代律师在验证案例真实性方面所需的专业努力和对抗虚假信息时锤炼出的敏锐直觉与职业本能。这提醒着法律从业者,在追求技术进步的同时,必须坚守法律职业的伦理底线,确保技术的每一次应用都能经得起法律专业的考验与时间的检验。

360集团创始人周鸿祎曾表示:“AI幻觉没法完全消除,因为它是大模型的‘天性’。”然而,法律与AI的结合是必然趋势,但应始终坚守专业主权——所有AI输出必经"验证-论证-担责"三重校验,在合同漏洞筛查、类案策略推演中构建人机协同的智能防线,才能避免“AI幻觉”导致的翻车现象重演。

法律服务的本质是专业价值的艺术,AI能提炼数据却无法驾驭《民法典》中“公序良俗”的弹性边界,更无力替代律师在反垄断博弈、医疗伦理抉择中的裁量智慧。当技术狂潮席卷而来,唯有将AI锚定在“工具”坐标,以法律人的解释权、证据链构建权为护城河,方能实现“效率革命”与“专业尊严”的共生共荣。

[1] AI“胡编乱造”新案例:法律文书、新闻报道都敢编?https://www.jianshu.com/p/2f94e3941054

[2] 斯坦福大学将扩充其关于AI法律研究工具在17%的查询中产生幻觉的研究结果,同时一些人对该结果提出质疑 https://qp6kkktqa2.feishu.cn/wiki/VYbOwrzLBi1mJUkdQiZcl4gdngf

来源:律新传媒

相关推荐