摘要:人工智能技术在算力、算法、数据三要素的共振下,正重塑社会生产方式和产业格局。多国基于场景、风险等标准对人工智能技术发展与安全治理做出法律、政策安排,其典型代表为欧盟《人工智能法案》的出台。我国的人工智能立法和治理体系也在日益完善。巴西于2024年酝酿的《人工智
文 / 刘晓春 马明远
人工智能技术在算力、算法、数据三要素的共振下,正重塑社会生产方式和产业格局。多国基于场景、风险等标准对人工智能技术发展与安全治理做出法律、政策安排,其典型代表为欧盟《人工智能法案》的出台。我国的人工智能立法和治理体系也在日益完善。巴西于2024年酝酿的《人工智能法案》法案,目前正在实质性推进立法进程。如获通过,有望成为拉美地区首个建立综合AI监管体系的国家,其治理框架既借鉴欧盟经验,又结合农业数字化、教育普惠等本土需求,为发展中国家提供了“监管—创新”平衡的参考样本。
一、巴西人工智能产业发展与立法概况
巴西作为拉丁美洲最大的经济体和人口最多的国家,其人工智能产业的发展展现出较大的市场潜力与独特的发展态势,目前主要处于技术应用环节,在技术开发方面尚未展现出明显优势。巴西互联网指导委员会2021年的调查数据显示,巴西有65707家公司引入了人工智能技术,占全国公司总数的13%;在政府层面,45%的联邦机构以及22%的国家组织正在运用人工智能。因此,巴西对于人工智能的监管需求也在呈现出来。
自2019年起,巴西立法机构围绕人工智能治理展开探索,形成一系列法案,逐步形成覆盖基础、原则、指导方针等伦理框架以及逝者图像和音频、专业辅助系统等特定场景的立法格局。尽管初期法案因技术认知差异、利益协调困难未能通过,但为后续立法积累了重要经验。
2023年,由法律专家委员会制定的《人工智能法案》(以下简称《法案》)的提出标志着巴西在该领域形成的较为广泛共识。该法案整合欧盟风险分级理念与本土发展需求,通过“风险分类+全周期治理”框架,试图解决早期立法的碎片化问题。2024年12月10日,参议院全体会议上《法案》替代性文本获得通过,并于2025年3月报送至众议院,巴西有望确立人工智能系统开发、运行与应用的国家性指导规范,为人工智能技术的发展奠定法律基础。
二、巴西人工智能治理框架
《法案》包含总则、权利、风险分类、人工智能系统管理、民事责任、良好行为规范和治理、严重事件报告、高风险人工智能公共数据库、监督和检查、促进可持续创新、公共当局的职能以及解释和过渡条款等十二章内容,构建了以权利保障、风险规制和激励创新为核心的人工智能治理框架。该框架注重保护个人或群体的基本权利,要求人工智能系统相关方履行禁止歧视、保护个人信息和隐私等义务,建立风险分类机制并制定相应管理措施,同时设立国家人工智能监管和治理系统等监管机构。此外,通过监管沙盒营造良好监管环境,设置数据挖掘合理使用制度,并为小微企业和初创企业提供创新激励,以保障人工智能产业的安全、可靠和持续发展。
(一)以人为本:保护基本权利与促进社会福祉
1.“基于原则”的治理
在人工智能快速发展的当下,“基于原则”的规制路径聚焦于构建人工智能发展的基础性价值框架,确立公平、正义、自由等伦理道德观念作为指导原则与治理目标,以此引导企业进行自我管理。“原则”与《法案》中规定的隐私与个人信息保护、不受非法歧视等基本权利形成映射关系,为人工智能系统研发部署划定了价值基线。
《法案》构建的人工智能治理框架包含了十八条原则,相较于欧盟《人工智能法案》更为具体,为人工智能的开发、部署和应用提供了指引。其中“包容性增长、可持续发展和社会福祉”原则、“禁止或者滥用歧视”原则以及“全面保护儿童和青少年”原则分别从发展目标、制止算法偏见、未成年人保护角度阐释对于基本权利的保护。
针对潜在的失业和社会福利问题,《法案》提出,在人工智能治理过程中需要重视其对劳动者所产生的负面影响,鼓励制定培养计划,不断提高劳动者技能以适应技术的发展,进而促进包容性增长、可持续发展,提高社会福祉。同时,根据反歧视的有关规定,确立“禁止或者滥用歧视”原则,禁止人工智能系统开发、部署和利用过程中,以滥用或非法的方式,基于个人特征,对法律中规定的一项或者多项权利的承认、享有或行使加以区别、排斥或偏袒,避免人工智能系统因算法偏见等因素对不同群体造成不公平对待。此外,《法案》也注重面向人工智能的未成年人保护,考虑到未成年人的脆弱性,要求促进和保护未成年人等弱势群体的权利,明确禁止开发、部署和使用用于制作、传播或者协助制作描述或者表现对未成年人的性虐待或者性剥削的材料的人工智能系统,并且将可能会对未成年人生理、心理和道德造成负面影响的系统作为确定新的高风险人工智能系统的标准之一。
2.“基于权利”的治理
《法案》确立的AI监管框架以巴西宪法权利为基础,保障受人工智能系统影响的个人和群体享有知晓交互方为人工智能的权利、隐私权和数据保护权、不受非法或滥用歧视和纠正偏见的权利。为保护可能受高风险人工智能系统影响的个人或群体,法律还赋予其额外的三项权利。第一,解释权,即用户有权要求对AI系统做出的决策、建议或预测进行解释。该解释需根据人工智能系统的复杂程度和涉及的主体,在合理的时间内以简单、易懂和适当的语言免费提供。第二,异议和审查权,即用户有权对AI系统的决定、建议或预测进行质疑,并要求人为审查;第三,审查权,即在考虑技术发展背景和现状的情况下,对智能系统决策享有人为审查的权利。
然而,这额外的三项权利须受到一定限制。一方面,若人工智能作出的决定、建议或预测涉及商业秘密,其解释权应有所限制;另一方面,行使权利需考虑技术现状,高风险人工智能系统开发者、经销商及应用者应始终采取有效、适当的措施,确保风险可控且符合技术实际。事实上,《法案》中许多权利并非全新,而是与巴西《通用数据保护法》等已有法律中确立的权利存在关联。
(二)风险导向:精准监管与分类治理
《法案》采用基于风险等级划分的初步评估制度和作为问责工具的算法影响评估制度两大工具,将具有不透明、复杂性、过程不可控的人工智能系统类型化,实现精准监管。此外,《法案》定义了通用人工智能和生成式人工智能,提出开发者要在投放市场前进行风险评估,依法合规采集处理数据并公布数据集摘要等要求。
1.过度风险人工智能
《法案》要求在投入市场或投入使用之前,所有人工智能系统都必须经过初步评估,并依据人工智能对受影响个人或群体产生不利影响的可能性与严重性等因素,将人工智能的风险等级划分为“过度风险人工智能”“高风险人工智能”以及“其他人工智能”。
《法案》第13条明确禁止开发和使用可能严重损害个人或群体基本权利、健康、安全等且风险极高的“过度风险人工智能系统”,违者将面临严厉处罚。具体而言,包括四种“过度风险人工智能系统”类型。一是禁止开发、实施或使用旨在侵害健康、安全等基本权利且危险性高的系统,如故意煽动个人或群体自我伤害或危害他人。二是禁止公共机构非法或不公平地依据自然人的社会行为或个性特征进行计分以评估、分类、排名,影响其获取商品、服务或公共政策制定。三是禁止在自主武器系统中开发、实施或使用人工智能,国防目的的人工智能开发和使用除外。四是禁止在公共开放空间的远程生物识别系统中使用人工智能,刑事领域有一定豁免。
2.高风险人工智能
《法案》第14条,考虑系统对可能受到影响的个人或群体产生不利影响的可能性和严重性,将涉及重要基础设施、教育、就业、社会保障、公共服务、司法、自动驾驶、卫生医疗、移民和边境管理等诸多重要领域的人工智能系统视为高风险系统。高风险人工智能系统的界定并非一成不变,主管部门将与国家人工智能监管和治理系统合作,在提前通知的前提下,可对人工智能系统的重新分类,并依合理方式开展算法影响评估。
对于开发者和应用者而言,在向市场推出或投放高风险人工智能系统时,除保证系统安全和受影响的人或者群体的权利外,还需对系统的安全性、准确性以及稳定性做出评估并持续更新其记录。如果系统存在导致歧视的风险,需要采取措施来减轻和防止歧视性偏见。此外,对于生成合成内容,应当进行标识,以助于验证内容真实性、来源以及追踪其可能经历的任何修改或传输过程。
(三)创新激励:营造有利于技术发展的环境
《法案》从监管环境、劳动保障、市场激励、可持续发展等多个方面激励人工智能技术创新。其中“监管沙盒”和版权及邻接权规定值得关注。
1.监管沙盒
巴西电信监管机构、金融监管机构在《法案》之前就进行了沙盒实验探索,地方层面也开始制定监管沙盒计划。在《法案》中,主管当局及部门监管机构将自主或应请求为符合条件的实体设立监管沙盒,使相关实体能在限定时间内开发测试创新型人工智能系统。这一机制通过临时豁免部分监管限制,为技术验证提供灵活空间。法案着重扶持小微企业、初创企业及公私科研与创新机构进入测试环境,并构建监管成本减免机制,降低创新准入门槛。同时,主管部门有权决定限制或中断高风险试验,提供基本权利、消费者权益及安全性三方面的保障。此外,试验参与方须依法承担因测试环境中进行的实验对第三方造成损害的民事赔偿责任,该规定与沙盒的监管豁免形成责任平衡。
2.训练数据版权保护与非商用数据挖掘合理使用
人工智能的发展相当程度上依赖数据资源,然而获取训练模型的相关数据权利人的许可存在巨大的交易成本,企业未经许可使用相关数据资源造成内容创作者与系统开发者之间的紧张关系。巴西法案力求在促进创新与知识产权保护之间取得平衡。《法案》要求人工智能系统开发者对其在系统开发过程中使用受版权和邻接权保护的内容进行公示,同时,赋予版权和邻接权人禁止他人在系统开发中使用其作品的权利。此外,对于在人工智能系统的挖掘、培训、开发过程中使用他人作品的许可费制度做出安排。
《法案》规定,科研机构、教育机构、博物馆、公共档案馆及图书馆等非商业科研机构可利用受保护内容进行文本和数据挖掘,以开发和研究人工智能系统,这不构成对作者权利及邻接权的侵犯。但需遵循以下三大限制条件:一是访问内容必须具有合法性;二是不具有商业目的;三是对受保护内容的利用程度应为实现目标所必需,且不影响权利人的经济利益,不与作品和受保护内容的正常利用产生竞争关系。
来源:中国对外贸易杂志