摘要:雷军说,被网友吐槽的“去年国庆假期7天被‘AI雷军’骂了8天”,他想维权却无法量化损失;靳东说,喜欢他影视剧的观众被AI换脸骗得很惨,希望建立更好的规则;周鸿祎说,大模型都会存在“幻觉”,但应该对它多些包容,柔性监管。
雷军说,被网友吐槽的“去年国庆假期7天被‘AI雷军’骂了8天”,他想维权却无法量化损失;靳东说,喜欢他影视剧的观众被AI换脸骗得很惨,希望建立更好的规则;周鸿祎说,大模型都会存在“幻觉”,但应该对它多些包容,柔性监管。
2025年全国两会期间,人工智能一直是最受关注的话题之一。随着人工智能快速发展、越来越多地进入日常生活,对人工智能进行立法的呼声也越来越高。今年人大常委会工作报告也提出,将围绕人工智能、数字经济、大数据等新兴领域加强立法研究。
但也有反对的声音认为,AI带来的很多问题,可以靠现行法律或者行业标准来解决,对于还没有成熟的新事物应该鼓励创新。
日前,红星新闻记者采访多位两会代表委员、行业专家及人工智能领域从业者,与他们一起探讨人工智能立法是否正当时。
资料图 据IC photo
正方:
尽快立法明确各方责任
为大模型发展划定边界和底线
目前,有多部法律和部门规章对人工智能进行规范。其中,网络安全法、数据安全法和个人信息保护法被称为“三驾马车”,从网络、数据、个人信息的角度对人工智能进行规范与治理。部门规章方面包括《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》,2024年网信办还发布了《人工智能生成合成内容标识办法(征求意见稿)》。
为人工智能单独立法的行动也一直在进行。2023年、2024年,人工智能法草案两次列入国务院年度立法工作计划;2025年全国人大常委会工作报告提出,将围绕人工智能、数字经济、大数据等新兴领域加强立法研究。
2025年全国两会期间,有多位代表委员建议人工智能立法。
全国政协委员、四川大学华西医院教授甘华田接受红星新闻记者采访时提到,用AI技术深度伪造视频、政府公告等虚假信息,不仅误导消费者,还可能对社会秩序、国家安全甚至人民群众的生命财产安全构成威胁。但现行法律对AI生成内容的监管责任界定模糊,相关法律滞后,平台审核技术能力不足,违法成本低,治理难度大。甘华田建议推动专项立法,明确各方的责任义务,严惩AI造谣。
全国政协委员、中华全国律师协会监事长吕红兵接受央广网采访时表示,制定一部既要解决当下问题,又能充分考虑长远的人工智能法难度极大。他建议选择生成式人工智能这一社会最关心最直接最现实的“切口”,尽快推进“小、快、灵”立法,尽早出台行政法规。
全国政协委员、中国科学院院士李景虹也提到,应该加快制定人工智能促进法,立足于发展,结合最小化的包容性审慎监管规则,着力破解制约人工智能发展的认知不足、法律法规和政策协调滞后、优质数据供给和保障不足、版权和知识产权保护及必要的豁免规则等基础性问题。
全国政协委员李景虹
中国政法大学传播法研究中心副主任朱巍认为,目前已经到了需要为人工智能立法的阶段。
朱巍告诉红星新闻记者,大模型深度学习和产出内容中涉及国家安全、歧视等内容需要规制,关于AI作品的知识产权认定需要明确,AI的使用也不能侵犯他人权利,另外AI获取的个人信息、商业秘密等也需要明确管理责任。现行规定虽然有涉及,但缺乏对大模型平台、发布平台、使用者等各方面的责任划分。
朱巍认为,需划分风险等级,为大模型发展划定边界和底线。底线必须遵守,在此之外则鼓励发展和创新。
反方:
对新兴事物立法应慎重
建议用行业标准来规范AI发展
不过,在全国政协委员、中国科学院计算技术研究所研究员张云泉看来,人工智能发展到这个阶段逐渐需要立法进行限制了,但需要分类、分阶段。
张云泉认为,对于已经成熟的行业应用,进入生产环节产生实际的经济效益,并且对社会造成实际影响的,应该尽快立法。如伪造人脸、伪造短视频等需要限制,对生成式内容强制添加标注等。但是,目前的一些大模型,还没有完全成熟,也不能对人造成真实危害,可暂时不要着急立法去限制,而是要鼓励发展创新。
“在大模型的原理还没有完全搞清楚、机理不可控的情况下,制定标准进行评价和监管是很难的。可以做立法的研究准备,但不要着急去运用。”张云泉说。
全国政协委员张云泉 图源:九三学社官网
南开大学法学院副院长、南开大学数字经济交叉科学中心研究员陈兵教授则更明确地提到,不主张目前对人工智能进行综合性、整体性的立法。相反,他建议需要对一些过时的规章制度进行清理、回收,同时对于现行有效的也进行系统梳理,提升规范实效性,避免叠床架屋或合成谬误的发生,为企业创新营造一个更加宽松的环境。
陈兵认为,对于大模型这种新兴事物,可以考虑从“先发展再治理”走向“边发展边治理”,像平台经济一样,发展中规范,规范中发展。当前,对新兴事物保持审慎包容的态度,只有对那些看得准有显著且不可逆损害的,必须予以果断及时的阻断,对其他可控、可归责性的风险规制可以考虑通过技术标准、科技伦理等软法硬化的方式予以及时调控。需认识到,为创新发展,特别是超常规发展需要承担必要代价,特别是试错容错的代价其本身也是创新发展的一部分。
陈兵解释,不立法并不意味着放任自流。现行各种法律和规章制度可对目前的很多问题进行处理,或者进行一些创新修改后进行处理。需要行政执法部门针对新出现的情况去落实,提高依法行政的能力和水平。像AI诈骗之类的很多问题,本质上还是传统的违法犯罪,只是用了AI这种手段,并不需要出台专门的法律才能判定。
对于真正的由AI带来的新问题,比如数据的拖库撞库、大模型数据滥用等问题,则需要进行事前规制和专门的判定。
“我们可以通过行业标准的形式,通过单行法、部门规章的形式来调整人工智能产业的发展,也包括人工智能发展中遇到的科技伦理问题。但进行综合性的立法,我认为暂时是不成熟的,也是没有必要的。”
AI企业观点:
分级分类 柔性监管
允许非高风险领域创新试错
2025年全国两会期间,多位人工智能企业代表谈到了大模型“幻觉”的问题,也提出规范的建议。
全国人大代表、科大讯飞董事长刘庆峰就建议,建立安全可信、动态更新的信源和数据知识库来降低人工智能“幻觉”出现的概率,研究“幻觉”自动分析的技术和软件平台,开展“幻觉”自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由相关部门定期清理“幻觉”数据。
全国人大代表刘庆峰
全国政协委员、360集团创始人周鸿祎在接受红星新闻记者采访时提到,“幻觉”是大模型与生俱来的特点,建议借鉴“避风港原则”,对大模型以及相关的产品和服务实施柔性监管,适度包容大模型的“幻觉”。
对于制定人工智能法案,刘庆峰告诉红星新闻记者,高度敏感和高利害领域应该尽快出台法律法规,比如“AI+医疗”“AI+教育”等,要设定准入标准和行业评价标准。另外,需要明令禁止AI技术被用在各种各样的违法犯罪领域。
刘庆峰认为,如果出台人工智能法案,应坚持“发展和安全并重、促进创新和依法治理相结合”原则,建立统筹人工智能发展和安全的跨领域、跨部门协调机制,采取有效措施鼓励人工智能创新发展,如国家级规划、算力支持、数据开放、人才培养等,同时加强安全监管规范,对医疗、金融等高影响领域实施严格准入,防范算法歧视、深度伪造等技术滥用等。
刘庆峰建议,建立分级分类、包容审慎的监管机制,对高风险领域设定更加严格的监管措施,对于其他领域允许“创新试错”。
在刘庆峰看来,上位立法重在构建监管框架,聚焦原则性条款,具体规则可以在部分行业作为“小切口”切入,再视发展情况适时上升为立法,保留更大的灵活度。另外,关注科技伦理标准企业自律等相对软性管理措施,“软硬结合”规范管理。“硬法”阻止“作恶”,“软法”确保“向善”,充分发挥科技对于确立进步方向、标准对于凝聚行业共识、企业自律对于探索治理方式的作用,推动技术创新与风险管控齐头并进。最后,根据法规的复杂性、涉及领域的广泛性以及可能产生的社会影响,科学评估并确定合理的过渡期时长,并在过渡期做好宣传教育、培训指导等各项工作,确保过渡期有序进行。
红星新闻记者 付垚 刘亚洲
编辑 郭宇 责编 李彬彬
来源:红星新闻