当心,“AI”可能在欺骗你

360影视 国产动漫 2025-06-11 23:48 2

摘要:近日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),自2025年9月1日起施行。旨在通过显式和隐式标识规范人工智能生成内容的管理‌。《标识办法》明确了服务提供者、传播平台及用户的责任,要求对文本、图片、音频等生成

近日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),自2025年9月1日起施行。旨在通过显式和隐式标识规范人工智能生成内容的管理‌。《标识办法》明确了服务提供者、传播平台及用户的责任,要求对文本、图片、音频等生成内容进行全过程标识管理,以维护公共利益和公民权益。

‌‌在AI技术狂飙突进的今天,我们正面临一个令人细思恐极的隐患——AI生成的内容可能通过“自我引用”完成造假闭环,让虚构变成事实。这一过程中,平台审核漏洞、技术滥用与数据污染的叠加效应,正在为虚假信息的“永动循环”提供温床。

不加标注的发表AI生成内容,会导致AI内容从无中生有摇身一变,成为权威引用。AI生成内容的本质是基于概率模型的文本重组,而非对真实世界的客观反映。例如,某些AI工具可根据指令批量生成虚构的“科学研究结论”或“社会事件描述”,这些内容往往缺乏真实数据支撑,却因逻辑通顺而极具迷惑性。例如,某用户要求AI生成“某城市限制外卖配送政策”的文案,AI快速输出包含虚构政策细节的内容,随后该内容被自媒体平台发布,未标注AI来源,成为“新闻”。当未标注AI来源的虚假内容不加任何标注的通过平台审核后,其传播过程即被赋予“社会存在感”。更危险的是,其他AI系统在抓取网络数据训练时,可能将这些虚假内容视为“真实信息”纳入语料库,形成数据污染。该“某城市限制外卖配送政策”文案被某网站发布后,其他AI在回答相关问题时直接引用该文章,形成“自证循环”。

AI造假闭环的形成原因主要有以下两个方面:一是因为技术缺陷,在《标识办法》正式施行之前,AI生成的内容没有添加显式或隐式标识,导致其混入语料库,产生持续污染。部分作者为追求流量,故意隐瞒AI创作事实进行传播,加剧造假闭环风险;二是由于平台责任缺失,审核机制流于形式。依赖简单的关键词过滤,无法识别深度伪造的逻辑矛盾。对于AI生成文章中的数据,不加以核实和探究,致使虚假数据出现在权威平台。

如何防止AI造假的扩张呢?给AI生成合成内容添加标识,是从源头上治理AI造假的有效手段。如果把AI生成合成内容比作一种特殊产品,制作内容的AI服务商就是厂家,传播内容的网络平台就是商店。《标识办法》规定,厂家在产品出厂时要贴上标识引起商店关注,商店也要在销售时通过贴标识等方式提醒消费者注意。其作用就是从内容生产和传播的源头入手,给“AI生产”打上识别码,使其更容易被网络平台检得出、被社会公众看得见。公众知道眼前信息源自AI,也就不会轻易上当受骗。

与此同时,我们还要积极主动地构建制度——平台——公众三道防线。相关部门要严格落实《标识办法》,加大AI监管,对纵容AI造假的平台实施相应处罚;平台要落实全链路审核,对未标识内容实施“默认拦截”,并对AI内容进行专项数据交叉验证;向公众普及“AI内容鉴别知识”,主动对AI提供的数据鉴别真伪。此外,AI开发团队还应建立官方认证的AI训练数据池,对公共领域信息进行真实性核验与标注,阻断污染数据流入训练环节。

AI造假不仅是技术上的问题,更是对人类社会信任的挑战。若放任闭环形成,我们将陷入“所有信息皆可疑”的认知荒漠。唯有通过制度约束、平台监管与公众觉醒的协同,才能让AI真正成为“辅人”而非“毁人”的工具。正如《标识办法》所强调的:“AI可以拟人、助人,但不能骗人、坑人”。在这场与技术的赛跑中,人类的清醒与警惕,仍是最重要的防线。(高瑞阔)

来源:川北在线网

相关推荐