摘要:从天坛公园健身圈“网红”到90岁患癌老人,徐大爷因AI遭遇了一场无妄之灾。原来是他的视频被盗用,利用AI换脸成癌症患者,还附带上了虚假广告。
【TechWeb】5月22日消息,从天坛公园健身圈“网红”到90岁患癌老人,徐大爷因AI遭遇了一场无妄之灾。原来是他的视频被盗用,利用AI换脸成癌症患者,还附带上了虚假广告。
随着人工智能技术的快速发展,诸如“AI换脸”“AI合成照片、视频”等逐渐成为网络上的常见现象。今日,“视频画面身临其境可能也是AI伪造”登上微博热搜,引发热议。
AI合成视频本质上是技术的极大突破,却被一些不法分子滥用,成了制造谣言、网络诈骗的工具。面对网络上源源不断又极其逼真的AI合成视频,我们该如何辨别真伪?
识别AI合成视频,这些细节不能忽略
AI换脸等合成视频背后往往少不了深度伪造技术DeepFake的身影。所谓DeepFake是两个词的合成,一个叫Deep Learning,就是深度学习;另外一个叫Fake,就是伪造,深度学习加伪造就能实现AI换脸。
人们最初认识这项技术是在2017年12月,一位名叫“deepfakes”的网友在Reddit网站发布了一条视频,利用AI技术将成人电影女主角的脸换成了《神奇女侠》主演盖尔·加朵,引发广泛关注。后来人们开始用他的网名deepfakes命名这项技术。
在国内,deepfakes也深受一些技术宅的喜欢,网上不乏售卖AI换脸软件的学习教程。而随着生成式AI技术的爆发,大大降低了AI合成视频的门槛,使制作难以辨识的换脸视频越来越容易,视频画面身临其境也变得不再靠谱。
北京邮电大学网络空间安全学院教授周琳娜在接受北京科技报采访时表示,这种技术的实现还是有一些细节是可以辨别的。比如输入的照片,眨眼或者闭眼的视频或图片比较少,那么生成的视频就不是很自然,它就没有眨眼的动作。或者,输入的照片或视频分辨率比较低,那么生成的视频也会有一些瑕疵,比如两只眼睛的瞳孔颜色不一致,牙齿的边缘过于整齐,细节不明显等。
蚂蚁集团天玑实验室安全算法专家朱凯也曾在接受媒体采访时表示,因为目前很多AI换脸的基础是被模仿者的照片,照片是平面的,生成的“数字人”也是以正面、平面为主。当人脸动起来时,会产生破绽。
此外,观察视频中人物的面部表情是否自然(比如AI合成视频大笑时眼角无皱纹)、眼睛眨动频率是否异常(AI合成视频的眨眼动作通常不连贯),以及音频和视频是否同步等都是常见的方法。
如何整治AI合成视频乱象?
利用AI技术编造网络谣言、实行诈骗等乱象已经引起相关部门的高度重视,抖音、小红书等互联网平台也出台了相关举措进行整治。
今年2月,中央网信办发布2025年“清朗”系列专项行动整治重点,其中特别提出整治AI技术滥用乱象,打击借AI技术生成发布虚假信息、实施网络水军行为等问题。
同样,为促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织的合法权益,国家网信办等部门前不久发布了《人工智能生成合成内容标识办法》,明确自9月1日起AI生成合成内容必须添加标识。
此外,头部短视频平台抖音日前发布公告,将开展专项行动治理“AI 起号”现象,重点整治利用AI生成低俗猎奇视频、AI生成虚拟外国幼儿教育专家教授育儿内容、AI视频账号售卖教程、AI账号秘籍传授、引导规避平台AI标注、转让销售AI虚拟账号等行为。
目前,在抖音平台站内已累计清理311条违规内容,针对心x甜、向xAi同城流量、瑞xxAI智习室等15个严重违规账号进行了封禁。
小红书方面也发布了关于整治AI技术滥用的治理公告,重点聚焦利用AI批量生产虚假内容涨粉、利用AI起号引流带货、售卖AI起号课程、售卖AI账号等违规行为,同时严厉打击转让、售卖、出租网络账号行为,加强AI生成内容监测甄别。
有业内人士指出,治理“AI造谣”是一项复杂的系统工程,不能仅靠约谈、罚款、关停下架等措施。面对快速发展的AI技术及日益丰富的应用场景,仍需进一步细化完善相关法律法规,加强源头治理,强化落地执行机制,提高造谣者的违法成本。
对于普通用户来说,要不断提升媒介素养与辨别能力,不盲目跟风转发,对未经核实的信息要保持怀疑态度,谨慎对待。
来源:TechWeb一点号