摘要:2025年7月30日,上海的朋友圈突然被一条“海啸预警”刷屏了。事情是这样的:一个民生公众号的运营者,钟某,发了一条消息说“上海紧急转移30万居民去苏州、无锡”,还配上了“数十万市民排队登车”的描述,气氛一下子炸开锅了。大家正盯着台风“竹节草”,这条信息立刻引
2025年7月30日,上海的朋友圈突然被一条“海啸预警”刷屏了。事情是这样的:一个民生公众号的运营者,钟某,发了一条消息说“上海紧急转移30万居民去苏州、无锡”,还配上了“数十万市民排队登车”的描述,气氛一下子炸开锅了。大家正盯着台风“竹节草”,这条信息立刻引发恐慌,阅读量一口气突破7000,还被疯狂转发。
但最让人讽刺的是,这条恐慌的根源居然是钟某用AI一键生成的。他自己说,看到俄罗斯地震引发海啸的新闻,想蹭个热点,直接用AI输入关键词生成文章,连核实都没做就发了。更离谱的是,这篇所谓新闻的内容乱套了,参考了28个网页,把台风、海啸、居民撤离这些本来毫无关联的事糅合在了一起。钟某经营公众号六七年了,赚了几千块,这次靠造谣只得了56块多,还被行政拘留,代价真的惨重。
这件事不是孤立的。公安部给的数据很扎心,2024年热门的50个国内AI风险案例中,超过五分之一涉及AI造谣。AI技术正用三大方式改变谣言生态:
第一,生产民主化。以前造谣要有写作能力,现在有了ChatGPT、文心一言,只需输入几个关键词,新闻内容随手出一大堆。光明网评论里说,AI让“有图有真相”这条老铁规也快失效了,因为图像做得越来越真。
第二,伪装专业化。AI不仅能拼凑“合理”数据,模仿官方报道,还能伪造专家引述。这不,上海“海啸”谣言里那些所谓“政府调度大巴、高铁”的细节,就很迷惑人。
第三,传播智能化。算法推荐让耸人听闻的标题更火爆。网易的调查揭示,AI谣言标题点击率比普通新闻高出了37%,这导致了“流量-赚钱-造谣”恶性循环。
这还不算最糟心的。AI造谣造成了“寒蝉效应”,也就是大家害怕信息不真实,开始少分享、少发声。中国社科院2025年的报告显示,65%受访者因为怕信息失真而减少社交分享,公众对媒体的信任降到了历史新低。
那么,我们能怎么破解AI制造的谣言呢?公安部网安局给了个三层防火墙:
第一,源头核查。给信息“验明正身”。就拿上海“海啸”事儿来说,自然资源部海啸预警中心根本没发布任何相关消息。大家要记住“三查”原则:查政府官网(网址后缀是.gov.cn)、查权威媒体,比如新华社、央视,还有专业机构,比如中国互联网联合辟谣平台。再有,别忘了翻翻发布账号的背景,看看注册时间、历史内容、粉丝互动。钟某的公众号基本就是蹭热点的,没专业资质。
第二,细节解构。找找AI的马脚。AI生成的图像常常有六根手指、瞳孔不对称,或者光影不对劲,比如央视网提醒过“太阳挂反”这种现象。宜昌网警周勇还建议大家看路牌是不是模糊,商标是不是变形。文本方面,AI生成内容常有时间混乱:会议说是“明天开”,文章里却写“昨天已结束”,地名拼错,把“无锡”写成“无夕”,或者数据夸张,比如“30万人”撤离却没明确安置点。
第三,逻辑推演。用最简单的常识“降维打击”。想想看,30万人撤离,得调动多少资源?大约要7500辆大巴或者150列高铁,怎么可能一点官方通报都没有?可以用“三问法”帮忙判断:需要多少资源支持?有没有预案?还有没有其他渠道印证?另外,也别被情绪带脑,遇到“震惊!”“速看删前”等煽动词汇就要打起十二分精神。清华新闻学院研究发现,AI谣言情绪强度比真新闻高了42%,容易冲击我们的判断。
可光我们个人防御还不够,得全民动手,共建防谣网:
个人层面可以安装类似“AI谣言粉碎机”的工具,阿里巴巴这技术准确率达81%。养成“5分钟冷静期”的习惯,别看到惊人信息就转发,先用“三镜法”检查:源头镜、细节镜、科技镜。还可以加入“网络朝阳群众”,及时向微博辟谣平台举报可疑信息。
平台也有责任。比如腾讯给AI内容加水印,建立“谣言熔断机制”,一旦转发超1万次,马上人工复核;还要优化算法,降低虚假信息权重,防止被“推爆”。
法律上,2024年出台的《生成式AI服务管理办法》明确要求“AI生成内容必须显著标识”,上海警方用《治安管理处罚法》第25条处罚了钟某——未来这种处罚还得更严厉。
面对信息洪流,我们其实在守护一种“理性的微光”。钟某被拘留时说:“没想到蹭热点会引发恐慌。”这句话背后,是我们时代的深刻矛盾——在追逐流量的同时,信息传播的本质被扭曲了。
但别绝望。正如腾讯新闻专栏《拥抱概率真相》说的,真假信息交织的环境,实际上是在锤炼公众的鉴别能力。我们每次识别谣言,都是媒介素养的升级。
古希腊哲学家赫拉克利特讲过:“一个人的品格就是他的命运。”在AI时代,一个社会的认知免疫力,决定了文明的高度。只要我们学会用科技而不盲从科技,保持理性的怀疑和善意的信任,也许就能在这条真假难辨的数字丛林里,找到通往真实的那条路。
来源:耕行