摘要:最近,朋友圈被各种AI神器刷屏,从写代码到秒出报告、从审查合同到做PPT,以DeepSeek、ChatGPT为代表的AI工具正在重塑企业的运作模式,为企业带来前所未有的效率提升,俨然成了企业“效率外挂”。然而,在这现象背后,却潜藏着诸多法律风险,本期《律师大V
最近,朋友圈被各种AI神器刷屏,从写代码到秒出报告、从审查合同到做PPT,以DeepSeek、ChatGPT为代表的AI工具正在重塑企业的运作模式,为企业带来前所未有的效率提升,俨然成了企业“效率外挂”。然而,在这现象背后,却潜藏着诸多法律风险,本期《律师大V说》,北京市盈科(深圳)律师事务所张雪律师从实际案例出发,为大家梳理并提示如何防范那些“看不见的坑”。
AI大模型在企业中的广泛应用
如今,AI大模型已经深深嵌入到企业运营的诸多关键环节。在运营管理上,它能轻松自动生成会议纪要,帮忙智能排期,还能迅速生成数据分析报告,为企业决策提供有力支撑;在研发创新领域,它能够辅助编写代码,自动生成技术文档,进行专利检索分析,让研发效率大幅提升;在市场营销环节,无论是个性化广告文案创作、消费者行为预测,还是社交媒体内容生成,它都能轻松应对;在风险控制方面,审查合同条款、检测合规性也有了它的助力。某跨国科技公司的技术总监曾感慨地说:“我们的研发效率提升了40%,但法务部门的工作量却翻了一番。”这句话道出了AI技术应用中的一个现实问题——技术带来的便利与法律合规要求之间的矛盾。
图片来源:图虫创意
AI大模型带来的典型的法律风险
(一)防范“数据裸奔”,警惕敏感数据泄露
隐私保护和数据安全是使用AI大模型时的主要关注点。企业在使用生成式人工智能服务时,可能会不经意间输入个人信息或公司商业秘密,这些信息可能被AI模型用于学习和输出,从而导致隐私泄露和数据安全风险,三星公司就是一个典型的例子。
2023年3月,三星的半导体事业暨装置解决方案事业部部门允许员工使用ChatGPT不足20天内,接连发生三起核心数据泄露事件,并且工程师在使用ChatGPT优化半导体设计代码时,不小心输入了包含工艺参数的提问内容。这些数据被永久存储在第三方服务器上,最终导致三星与台积电的3nm芯片技术相似度异常升高。事件曝光后,三星紧急强化数据保护机制,明确警告继续违规将切断ChatGPT连接。这一事件给企业敲响了警钟,数据留存风险不容忽视。用户输入的内容可能会永久成为模型训练数据,一旦数据泄露,后果不堪设想。企业数据存储在第三方服务器上,形成了监管盲区,企业对数据的控制力大大减弱,导致企业对敏感数据的控制权丧失。此外,员工在使用过程中,可能无意识地输入包含敏感信息的内容,从而导致数据泄露。
图片来源:图虫创意
(二)AI技术引发的不正当竞争
AI技术的广泛应用,确实为企业带来了诸多便利,但同时也暗藏了不少法律风险,不正当竞争便是其中之一。我国首例涉生成式人工智能平台侵害信息网络传播权案,案号为(2019)沪0115民初84493号,原告上海某文化发展公司拥有奥特曼系列作品在中国地区的著作权独占授权。被告杭州某智能科技公司运营的触手AI平台提供Checkpoint基础模型和LoRA模型,支持用户上传图片进行模型训练,生成与奥特曼形象相似的图片。原告认为被告的行为侵害了其对奥特曼作品的信息网络传播权,并构成不正当竞争,起诉至杭州互联网法院,要求被告停止侵权并赔偿经济损失30万元。被告则辩称其平台仅提供技术整合和应用部署,用户上传的图片素材未经平台提供,属于“避风港”规则下的免责范围。最终,杭州互联网法院认定被告构成帮助侵权,判决其立即停止侵权行为,并赔偿原告经济损失及合理费用共计3万元。杭州中院二审维持了原判。
无独有偶,全国首例涉“虚拟数字人”知识产权侵权纠纷案件也值得我们关注,案号为(2023)浙01民终4722号,魔某珐信息科技有限公司打造了超写实虚拟数字人Ada,并在2019年10月通过公开活动发布,还在同年10月、11月通过bilibili平台发布了两段使用Ada形象的视频。2022年7月,杭州某网络有限公司通过抖音账号发布两段被诉侵权视频,视频中使用了魔某珐公司发布的相关视频内容,并在片头片尾替换标识,添加虚拟数字人课程的营销信息,其中一段视频还添加了杭州某公司的注册商标,并将其他虚拟数字人名称作为标题的一部分。杭州互联网法院一审认定杭州某公司发布这两段被诉侵权视频,侵害了魔某珐公司涉案美术作品、视听作品、录像制品及表演者的信息网络传播权,并构成虚假宣传的不正当竞争行为。判决杭州某公司在其抖音账号上为魔珐公司消除影响,并赔偿经济损失(含维权费用)12万元,驳回其他诉讼请求。杭州某公司不服提起上诉,二审法院判决驳回上诉,维持原判。
(三)开源协议合规隐患
开源协议合规隐患是企业必须重视的问题。火山引擎的Apache许可证事件就是一个典型的教训。2022年1月28日,ApacheSkyWalking官网发布声明,指出火山引擎某款用于监控和管理软件应用性能的技术以非法方式重新发行了ApacheSkyWalking的SkyWalkingJavaagent开源软件,违反了Apache2.0许可证。火山引擎在最终发布的软件中,删除了SkyWalkingJavaagent所有包的名称,没有保留Apache软件基金会的标题(header)、开源许可证和NOTICE文件。在SkyWalking发出声明后,虽然火山引擎的APMPlus开发团队在2022年1月30日承认了其违反许可证的行为,并表示将采取措施进行弥补,但火山引擎的APMPlus开发团队违反许可证的行为,不仅可能导致开源社区对其信任度下降,影响其在开源领域的声誉,还可能使其他开发者和企业在与之合作时产生顾虑,不利于其未来的开源项目合作和技术交流。
对于企业来说,良好的合规记录是商业合作的重要基础。违反许可证规定可能会让潜在的商业合作伙伴对企业的合规意识和管理水平产生质疑,从而影响商业合作的机会。在一些对知识产权保护和合规要求较高的行业,这种负面影响可能会更加明显,甚至可能导致一些合作项目的流产。
合规建议
(一)建立数据分级管理体系
企业在数据管理方面,建立数据分级管理体系是关键。将数据分为核心数据(如工艺参数、客户名单)、重要数据(如运营数据、财务信息)和一般数据。核心数据仅限本地化部署模型使用,通过物理隔离确保其安全。同时,部署差分隐私技术,在数据输入阶段添加随机噪声,降低数据泄露风险。建立查询过滤机制,自动识别并拦截包含敏感字段的提问,防止敏感信息泄露。此外,制定《AI使用安全手册》,明确禁止输入的数据类型,让员工在使用AI时有章可循。企业还应建立数据泄露应急响应预案,参考ISO/IEC27035标准,确保在发生数据泄露时能够迅速、有效地应对。企业需要遵守相关的数据安全法和个人信息保护法,确保数据来源的合法性,并在使用时获得用户授权。
(二)构建知识产权风险防控模型
在知识产权风险防控方面,企业应选择训练数据可溯源的商业化模型,确保AI生成内容的合法性和原创性。对AI生成内容进行版权登记,部分地区已接受登记备案,通过登记为AI生成内容提供法律保护。在用户协议中设置知识产权声明条款,明确用户对AI生成内容的知识产权归属和使用权限,企业在使用AI技术时,务必重视AI生成内容可能涉及的版权问题,严格审核AI生成的内容,确保其合法性和准确性,否则可能面临法律责任和经济损失。此外,由于AI技术的复杂性和自动化特性,责任归属可能变得模糊不清。企业需要通过合理的条款设计和风险评估机制来明确责任归属。
图片来源:图虫创意
(三)关注商业使用限制要求
在商业环境中,法律合规至关重要。开发者若希望限制商业使用,可选择GPL(GNUGeneralPublicLicense)系列等更适合的许可协议,并在项目文档中明确说明限制,避免法律纠纷。使用者在采用基于Apache-2.0协议的软件时,应仔细阅读协议条款和项目文档,了解商业使用限制,有疑问时咨询专业法律人士。企业需遵守数据安全法和个人信息保护法,确保数据来源合法,使用时获得用户授权。明确AI生成内容的知识产权归属,防止侵权行为。随着各国对生成式AI的法律监管加强,企业要密切关注法律法规变化,采取适当合规措施。
在创新与合规之间寻找平衡点
AI技术应用不能放大法律风险。企业要享受AI带来的便利和效率,需建立“技术选型-部署应用-效果评估”全周期的合规管理体系,这样既用好AI的变革力量,又防范法律风险。建议企业每季度开展一次AI合规审计,密切关注最高法发布的典型案例,及时了解和掌握最新的法律动态和风险点。只有在创新与合规之间找到平衡点,企业才能在数字化时代实现真正的安全与效率兼得。
来源:读特新闻一点号