摘要:近日,中央网信办印发通知,在全国范围内部署开展为期3个月的“清朗·整治AI技术滥用”专项行动,着力规范AI服务和应用,促进行业健康有序发展,保障公民合法权益。AI技术滥用已成为违法侵权重灾区,此番专项行动犹如利剑出鞘直指乱象,为网络空间清朗化注入强劲动力。
近日,中央网信办印发通知,在全国范围内部署开展为期3个月的“清朗·整治AI技术滥用”专项行动,着力规范AI服务和应用,促进行业健康有序发展,保障公民合法权益。AI技术滥用已成为违法侵权重灾区,此番专项行动犹如利剑出鞘直指乱象,为网络空间清朗化注入强劲动力。
AI技术常被用于生成逼真的图像、生动的视频和自然的语音,如今其正在成为制造和传播虚假信息的重要手段。技术滥用乱象频发,已成社会治理“痛点”。利用AI技术炮制虚假信息,“深度伪造”冒充公众人物发声,伪造政府文件制造恐慌……AI技术滥用已然需要引起高度关注。而一些平台滥用算法推荐,通过“信息茧房”加剧社会撕裂,甚至将技术异化为操控舆论的工具。种种乱象侵蚀社会信任,对公民合法权益构成严重威胁。
整治AI技术滥用需划定法律红线,筑牢监管堤坝。我国制定的网络安全法、数据安全法、个人信息保护法等法律,已在一定程度上涉及对人工智能的安全监管。同时,我国还专门针对人工智能的治理出台了一些部门规章。使用AI技术应当守住法律边界,不能突破不得损害他人合法权益的底线。此次专项行动明确要求打击利用AI生成虚假信息、恶意营销、侵犯隐私等行为,正是对法律原则的具体落实。强化监管,依法整治AI技术滥用乱象正当其时。
技术向善需企业担责,行业自律不可缺位。国家网信办等部门联合发布《生成式人工智能服务管理暂行办法》,已有超过200个人工智能大模型完成了备案程序。AI企业应秉持“科技伦理先行”理念,将社会责任融入技术设计,通过建立内容审核模型,识别并拦截违规生成内容,提升技术自净能力。行业协会也应发挥作用,制定AI服务标准,建立“黑名单”制度,对屡教不改者实行市场禁入,形成“一处违法、处处受限”的惩戒机制。
清朗网络空间需多方协同,构建共治格局。整治AI滥用不能仅靠监管部门发力,更需要平台、公众、技术社群共同参与。AI风潮正在席卷各行各业,深刻影响生产生活。网民应提升数字素养,对AI生成内容保持理性辨识;平台方要完善用户举报机制,对恶意使用技术者实施“信用扣分”;技术社群则应研发更智能的鉴别工具,为治理提供“技术弹药”。以全民合力推动技术治理回归人文轨道,才能避免“技术狂奔”带来的伦理风险。
技术本无善恶,关键在运用之人。此次专项行动既是“亮剑”技术滥用乱象,更是“校准”AI发展路径。将法律规范、行业自律、公众监督拧成一股绳,将让AI技术真正成为造福人类的“善智”,而非威胁社会安全的“暗器”。
供稿:网信办(洪言)
编辑:陈 霞
审核:刘军波
分享小伙伴
来源:洪泽发布