摘要:老话常讲 “眼见为实”,可在科技飞速发展的当下,这句话似乎得改改了。如今,仅需一张照片,不法分子就能借助实时 AI 换脸技术,摇身一变,伪装成你身边最亲近的人,悄然对你实施一场精心策划的 “诈骗风暴”,而且这种诈骗手段的成功率堪称恐怖,近乎 100%,说不定在
老话常讲 “眼见为实”,可在科技飞速发展的当下,这句话似乎得改改了。如今,仅需一张照片,不法分子就能借助实时 AI 换脸技术,摇身一变,伪装成你身边最亲近的人,悄然对你实施一场精心策划的 “诈骗风暴”,而且这种诈骗手段的成功率堪称恐怖,近乎 100%,说不定在你毫无察觉之时,就已深陷骗局,损失惨重。所以,大家务必对此提高警惕,掌握识别诈骗手段的方法,全力守护自己与家人的财产安全。
新型骗局:打破 “眼见为实” 的认知
以往那些诈骗套路,不少是骗子盗取亲朋好友账号,佯装遭遇重大困境,向受害者骗取钱财。但随着大众反诈意识提升,这类手段逐渐被识破。可诈骗分子哪会轻易罢手,他们紧跟科技步伐,迅速对诈骗手段进行 “升级换代”。现在,当你收到好友借钱请求时,通常会先打个电话或发起视频通话,确认对方身份后才敢转账。可别以为这样就能高枕无忧,骗子的手段已超乎想象,AI 换脸这一新型诈骗方式正悄然袭来。它能精准模仿任何人的面容,甚至能与家人 “视频通话”,以假乱真,让人难辨真伪。“10 分钟被骗 430 万”,这可不是虚构故事,而是真实发生过的悲剧。
2023 年 5 月,“AI 诈骗正在爆发” 的消息闯入大众视野。福州某公司的法人代表郭先生,就不幸沦为受害者。那天,郭先生的微信突然收到好友打来的视频通话,好友焦急表示自己在外地参与竞标,急需 430 万保证金,且需通过公对公账户过账,想借用郭先生的公司账号周转。郭先生心想,对方是多年好友,只是走个账,便没多想。在未收到对方转账的情况下,他迅速将 430 万转给了好友提供的银行卡账户。事后,郭先生越想越不对劲,拨打好友电话核实,这才惊觉自己被骗得底儿掉。原来,此前的视频聊天和声音,全是经过 AI 处理的,与好友毫无二致,实则是一场精心炮制的 “AI 骗局”。
如今 AI 技术发展迅猛,骗子只需获取你身边朋友的一张照片或一段语音,就能借助技术快速合成以假乱真的视频和声音,再通过视频电话与你沟通,轻易打消你的防备,实现诈骗目的。更可怕的是,这种诈骗手段成功率极高,一旦中招,几乎无人能幸免,“眼见为实” 在 AI 面前似乎成了一句空话。
换脸换声音:AI 沦为诈骗 “帮凶”
不可否认,AI 的诞生给人们生活带来诸多便利,可它也是把双刃剑。一旦落入诈骗分子之手,便瞬间沦为作恶工具。骗子凭借一张照片或一段语音,借助 AI 技术,就能生成极具迷惑性的视频和声音。当他们将你的声音与精心编造的诈骗话术合成视频后,足以让你的亲朋好友信以为真。他们随便编造个借口,比如遭遇突发困难急需大量资金,便能以此为由向你的家人好友求助,骗取钱财。尤其对老年人而言,AI 合成的声音更像难以识破的 “迷魂阵”。很多老人对 AI 技术闻所未闻,根本想象不到合成声音与真人声音竟能如此相似。曾有记者用不同生成软件合成一段语音,并录制一段真人声音,播放给老人辨别。
参与测试的 10 位老人,竟无一人能准确分辨出哪个是真人声音。即便播放老人们家人的声音,将真人与 AI 生成的版本混在一起,老人们听后也坚信合成声音就是自己家人的,丝毫没意识到这是电脑生成的产物。这种情况并非个例,在广大老年群体中,普遍存在难以识别 AI 合成声音的问题。除了利用亲人实施诈骗,还有不法分子盯上公众人物。公众人物粉丝众多,一举一动备受关注,照片和声音极易获取。若被不法分子利用 AI 合成,足以迷惑粉丝和观众,诱导大家消费,同时也严重侵犯了公众人物的肖像权。
如何分辨:筑牢反诈防线
既然骗子常通过视频实施诈骗,那当接到亲朋好友借钱的视频请求时,务必多留个心眼,可通过其他联系方式进一步确认。比如打电话核实,或换个软件沟通,条件允许的话,最好当面确认。即便对方已发起视频,也不能掉以轻心,一定要多渠道验证。其实,AI 合成视频并非天衣无缝,仔细观察,还是能发现一些漏洞。像人脸的生物特征,眨眼频率、嘴部运动等细节,有时并不符合人体生理特性,容易 “穿帮”。
但老年人听力、视力本就欠佳,这就给了诈骗分子可乘之机。所以,日常生活中,但凡涉及转账交易等关键行为,都要格外谨慎。接到陌生电话时,千万别急着开口。因为你不确定对方是否为诈骗分子,若先开口,对方可能趁机提取你的音频,用于生成 AI 合成声音,转而对亲近之人实施诈骗。作为子女,应多与父母沟通交流,关心老人日常生活与财务状况,时常为父母科普防诈骗知识,着重强调 AI 诈骗技术的厉害之处,提升老年人的自我防范意识,让他们心里有底。总之,生活中时刻提高警惕,才能有效避免落入骗子精心布置的 “圈套” 。
来源:SQTV健康