摘要:10月8日,超模叶凯薇在社交平台发布长文,控诉有不法分子利用AI换脸技术将其肖像嫁接至淫秽视频,相关素材已在境外色情网站传播超过20万次。其工作室晒出的司法鉴定书显示,涉事视频存在97.3%的深度伪造匹配度,目前已向北京网信办及公安机关递交72项证据。
10月8日,超模叶凯薇在社交平台发布长文,控诉有不法分子利用AI换脸技术将其肖像嫁接至淫秽视频,相关素材已在境外色情网站传播超过20万次。其工作室晒出的司法鉴定书显示,涉事视频存在97.3%的深度伪造匹配度,目前已向北京网信办及公安机关递交72项证据。
网络安全专家对曝光视频进行技术拆解,发现制作者使用DeepFaceLab等开源工具,通过叶凯薇社交媒体发布的278条短视频训练AI模型。更触目惊心的是,部分平台存在"明星换脸套餐"地下交易,提供200元定制视频、500元包月更新的违法服务。腾讯安全团队监测数据显示,2023年AI换脸诈骗举报量同比激增430%。
虽然叶凯薇方已依据《民法典》第1019条提起人格权诉讼,但司法实践面临多重困境。中国政法大学传播法研究中心指出,现有法律对深度伪造作品的定性模糊,刑事立案需证明"实质性损害",而民事维权常陷入"封禁一个账号冒出十个"的困局。值得注意的是,部分境外服务器运营者利用《网络安全法》域外效力限制逃避追责。
事件曝光后,抖音、小红书等平台紧急上线"AI生成内容标识系统",但测试发现仍有35%的深度伪造视频逃过检测。中国人民大学AI伦理研究所强调,内容平台需建立"上传者人脸数据对比库",从源头阻断换脸素材获取。欧盟今年7月通过的《AI法案》要求深度合成内容必须强制标注,违者处全球营业额6%罚款,这为我国立法提供了参考。
公安部第三研究所展示的最新反制技术显示,通过虹膜微震颤检测、血流信号分析等手段,可有效识别95%以上的AI换脸视频。广东、浙江等地网警部门已开通"AI犯罪"专项举报通道,上海更推出全国首个"数字身份验证"小程序,帮助公众核验网络影像真伪。
这场由AI技术滥用引发的维权风暴,不仅揭露了黑色产业链的猖獗,更暴露出数字时代公民人格权保护的系统性漏洞。当技术跑在法规之前,建立政府监管、平台自治、技术反制、公众警觉的四维防御网,已成为守护数字人格权的必答题。
来源:芹姐浅谈