摘要:《消费者报告》最新调查发现,当前主流AI语音克隆平台存在严重安全隐患——只需在网络上随便找一段你的声音,任何人都能制作出以假乱真的仿制品。媒体实测6家平台发现,仅1家能有效阻止声音盗用。
《消费者报告》最新调查发现,当前主流AI语音克隆平台存在严重安全隐患——只需在网络上随便找一段你的声音,任何人都能制作出以假乱真的仿制品。媒体实测6家平台发现,仅1家能有效阻止声音盗用。
真实案例触目惊心
2024年美国大选期间,诈骗分子用AI伪造拜登声音群发电话,诱导选民“不要投票”,最终被罚600万美元。更可怕的是,这类技术已形成黑色产业链:
克隆明星声音制作假歌曲(如假冒Drake的AI单曲)伪造亲人声音实施“祖父母诈骗”(谎称绑架急救)冒充企业高管进行商业欺诈平台漏洞实测
我们测试了6家主流语音克隆平台,结果令人不安:
ElevenLabs/Speechify/PlayHT/Lovo:仅需勾选“我已获得授权”即可克隆Resemble AI:声称需实时录音,实则用电脑播放录音就能破解Descript:唯一要求录制特定授权声明的平台更值得警惕的是,这些平台中:
5家完全免费开放使用克隆精度达专业配音员水平生成1分钟语音最快仅需3秒技术滥用危机四伏虽然AI语音在助残、翻译等领域有积极作用,但专家警告现存三大风险:零监管困境——全行业依赖企业自我约束,无强制安全标准;检测失灵——现有鉴伪工具准确率不足60%;犯罪成本低——克隆奥巴马声音只需他5秒演讲视频。
自我保护指南
AI安全专家给出3条实用建议:
避免在社交平台发布超过10秒的连续说话视频为亲人设定“语音安全暗语”(如特定日期或宠物名)接到可疑语音时,要求对方做指定动作验证(如摸左耳朵)目前,美国FCC已禁止AI自动拨打诈骗电话,欧盟正推动《AI法案》要求克隆平台实施真人验证。但对于普通人来说,提高警惕仍是第一道防线。
来源:SENSORO升哲