人工智能立法要达成“共识”

360影视 2024-12-31 16:56 3

摘要:从2023年初ChatGPT惊艳问世,到2024年初Sora引起全球关注,人工智能技术发展的脚步日益加快。不过与此同时,AI造谣、AI侵权、AI诈骗等乱象也纷至沓来。

从2023年初ChatGPT惊艳问世,到2024年初Sora引起全球关注,人工智能技术发展的脚步日益加快。不过与此同时,AI造谣、AI侵权、AI诈骗等乱象也纷至沓来。

近年来,一些企业和个人为赚取平台流量补贴,利用AI造谣现象频发,且传播速度极快,一些谣言造成不小的社会恐慌和危害。公安部近日公布的依法打击“网络水军”违法犯罪10起典型案例中,包括有公司利用人工智能(AI)工具编造谣言信息并批量发布。

不可否认,人工智能在提供便利的同时,AI工具大幅降低了造谣的制造成本。

清华大学新闻与传播学院新媒体研究中心2024年4月发布的一份研究报告显示,近两年的AI谣言中,经济与企业类谣言占比最高,达43.71%;近一年来,经济与企业类AI谣言量增速高达99.91%,其中餐饮外卖

、快递配送等行业更是AI谣言重灾区。

AI造谣呈现出门槛低、批量化、识别难等特点。与此同时,人工智能带来的诸如算法黑箱、歧视偏见等社会问题也开始凸显。如何加强更有效的监管,首当其冲的就是人工智能的立法。

目前,国内外出台了一系列确保人工智能安全、促进人工智能在公共管理、社会服务等典型场景应用的政策法规,这些政策法规逐渐形成了算法透明度、高风险产品备案、风险监测、用户权益保护、训练数据合规、算力设施共享、高价值数据资源供给等一系列典型制度,基本确立了未来人工智能法要解决的主要制度。

国外人工智能立法:欧美侧重不同

在已发布的美欧法案中,业内分析认为,两者各有侧重,美国更重公平隐私,欧盟更重风险管控。

2022年10月4日美国发布《人工智能权力法案蓝图》,提出通过“建立安全和高效的系统、避免算法歧视、保护数据隐私、及时履行通知与解释义务、准备替补方案与退出机制”五项原则,预防滥用人工智能技术带来的风险。

随后在2023年1月,美国国家标准与技术研究院发布《人工智能风险管理框架》;2024年5月,美国参议院发布了第一版人工智能发展政策路线图。

2021年,欧盟委员会提出全球首部监管人工智能的法律草案,此后欧洲议会和欧盟理事会就草案进行多轮修订和讨论。在ChatGPT等生成式人工智能应用横空出世后,欧盟立法者紧急商讨了原版本草案中未涵盖的问题。

2023年6月,欧洲议会投票通过了《人工智能法案》(以下简称《法案》)的谈判授权草案,新《法案》的监管思路是以横向监管为基础,以风险规制为主要方式,同时兼顾监管与发展的动态平衡。

2024年3月,欧洲议会正式通过欧盟《法案》。8月,《法案》正式生效。

《法案》规定,所有的人工智能交互产品和结果必须进行标注,其中一些条款规定,聊天机器人等人工智能系统必须明确告知用户他们在与机器互动,人工智能技术提供商必须确保合成的音频、视频、文本和图像内容能被检测为人工智能生成的内容。

此外,该《法案》涉及一些人工行业“合规”的新规定,包括谷歌、亚马逊和Meta等美国主要科技公司在欧盟运营必须适应新的监管环境。目前,Meta的人工智能模型在欧盟已受到限制,其他违反《法案》的公司也将面临重罚。

对于违反《法案》中关于禁止使用AI的规定,最高罚款为3500万欧元或全球年营业额的7%(以较高者为准)。根据欧盟委员会的一项研究,42%的欧洲企业已经使用至少一种AI技术。电商行业在这一应用中处于领先地位,因此更容易受到监管变化的影响。

事实上,欧盟《法案》规定了属人、属地和实质判断等多个管辖标准,只要对欧盟市场提供产品或者开展服务,或其产品的输出物有可能在欧盟被销售,甚至位于欧洲的用户可能因使用其产品受到不利影响,均受其管辖。

除去欧美立法之外,在亚洲,韩国国民议会通过了《人工智能发展与信任基础创建法》(简称《AI框架法案》),主要聚焦建设治理体系、支持产业发展、防范可能风险这三大方面。《AI框架法案》预计在明年初得到内阁会议通过后在2026年1月开始实施。韩国也因此成为欧盟后全球第二个通过“人工智能法案”的国家或地区。

我国人工智能领域相关规定不断完善

相比国外立法情况,近些年,国内众多学界、业界人士也开始越来越多地探讨我国是否需要加快推动人工智能立法,以促进人工智能产业高质量发展。

事实上,早在2017年,《国务院关于印发新一代人工智能发展规划的通知》就提出人工智能立法“三步走”战略目标,其核心要义是构建完善的“人工智能法律体系”。我国连续两年(2023、2024年)将“人工智能法草案”列入国务院立法工作计划。

在人工智能综合立法方面,2022年《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》先后颁布,以促进发展为主兼顾安全治理的立法思路做出了地方探索。

在特定技术方向立法方面,中央网信办2021年12月发布的《互联网信息服务算法推荐管理规定》,对算法技术治理进行了深入探索,并对高风险算法采取备案检查的措施。

此外,最高人民法院针对人脸识别技术发布的相关规定,为人脸识别技术的规制提供了法律依据。

2022年11月,由国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》对利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的人工智能技术治理做出探索,并前瞻性地为
ChatGPT 等生成式人工智能技术的颠覆性应用提供了安全保障规则。

2023年8月,《生成式人工智能服务管理暂行办法》开始施行,中国由此成为首个为生成式大模型专门立法的国家。

2024年4月,中央网信办秘书局发布《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》,要求加强信息来源标注展示。使用AI等技术生成信息的,必须明确标注系技术生成。发布含有虚构、演绎等内容的,必须明确加注虚构标签。针对疑似使用AI技术的内容,一些平台会在下方贴上“内容疑似AI生成,请谨慎甄别”的提示,并对包含虚构、演绎等环节的内容,明确加注虚构标签,对违规账号采取“封号”等举措。部分大模型开发者也表示,会通过后台设置的方式,对通过大模型生成的内容打上水印,告知用户。

此外,中国学术界已经先后推出《人工智能示范法(专家建议稿)》《人工智能法(学者建议稿)》两项成果,前者又分为1.0、2.0两版本。两部建议稿旨在推动讨论、凝聚共识,为我国人工智能立法提供参考。

专家:立法需要长期治理的思维

数据显示,人工智能核心产业规模已超5000亿元,企业数量超过4300家,正在形成从基础支撑、核心技术到行业应有的产业链条,不断促进企业突破既有生产边界,向产业链上、下游延伸、拓展,推动终端设备产品及服务的智能化。

在人工智能治理方面,世界各国既有合作,也有竞争,既有共识,更有分歧,无论是理论研究,还是制度构建,都面临选择困惑。中国法学会副会长姜伟表示,人工智能立法也需要一个认识逐步深化的过程,需要树立长期治理的思维,不宜急功近利、毕其功于一役,更不能采用激进的方式解决。

北京邮电大学人工智能学院人机交互与认知工程实验室主任刘伟表示,现在,中国和美国迟迟未出台针对人工智能的相关法规,原因之一就是当前人工智能技术发展飞快,立法不慎可能会带来负面影响。不管是美国、欧盟还是中国,“谁率先提出一个能被广泛接受的新标准、新理念,谁就会在未来的市场竞争中更具优势”。

中国政法大学数据法治研究院教授张凌寒认为,就具体治理规则而言,中国和欧盟在价值文化、监管体系、产业生态等方面均存在一定差异性,尤其是中国的人工智能产业具有独特的国际生态地位,是人工智能领域“领先的追赶者”。我国在制定人工智能治理规则时要谨慎照搬国外的人工智能治理制度,应提出有别于欧盟立法思路的中国方案,避免法律与产业实践的悬隔。

中国人民公安大学数据法学研究院院长、教授苏宇指出,在国内有关人工智能法治的学术讨论中,人工智能法的调整对象往往被有意或无意地假定为生成式人工智能乃至大模型,而实际上这只是整个人工智能的一个局部,远难覆盖人工智能技术与应用之全貌,以此为模板设计人工智能法律体系,极易出现“挂一漏万”或“削足适履”的后果。对此,应当根据人工智能不同技术路线的特点,推行多层级分支式治理架构,构筑我国人工智能法律治理的基本框架。

来源:中国质量万里行

相关推荐