摘要:随着人工智能技术持续迭代发展,利用真假难辨的AI生成内容伪造恶搞、编造新闻、钓鱼诈骗等现象初步显现,AI 内容真假难辨的问题引发广泛关注。如何帮助公众识别AI生成内容?AI谣言怎么治理?
林爱珺
武执政
“人工智能生成合成内容标识政策法规宣讲活动”现场。
随着人工智能技术持续迭代发展,利用真假难辨的AI生成内容伪造恶搞、编造新闻、钓鱼诈骗等现象初步显现,AI 内容真假难辨的问题引发广泛关注。如何帮助公众识别AI生成内容?AI谣言怎么治理?
为深入贯彻落实国家互联网信息办公室联合多部门发布的《人工智能生成合成内容标识办法》(简称“标识办法”)及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(简称“标识方法”),促进人工智能健康发展,4月18日,“人工智能生成合成内容标识政策法规宣讲活动(广东站)”在广州举办。
本次宣讲会由中央网信办网络管理技术局、广东省委网信办指导,中国网络空间安全协会、广东省网络数据安全与个人信息保护协会主办,南方都市报、南都大数据研究院承办,广州市白云区政务服务和数据管理局,趣丸科技提供支持。参编专家现场详细解读,企业分享思路举措,助力人工智能生成合成内容标识机制的落地实施。同时,还多方共议生成式人工智能内容安全保障,为AI谣言治理建言献策。
来自省市相关主管部门、高校科研院所、人工智能企业、互联网平台等单位的100多位代表参加本次宣讲会。
新规解读
新规参编专家:技管联动推动AI内容标识落地落实
在人工智能生成合成内容标识政策法规宣讲活动上,专家指出,《标识办法》和《标识方法》通过标识机制提升内容透明度,帮助用户辨别虚假信息,并明确相关主体的责任义务,规范内容制作、传播环节的标识行为,与现有法规形成联动。通过管理规定与技术标准协同,确保政策可落地、可实施、可考核,形成安全治理与产业发展的良性平衡。未来还将不断完善标识技术体系,探索建立生成式人工智能治理长效机制,提高公众的人工智能素养与标识意识。
打出“管理+技术”组合拳 推动AI内容标识落地落实
近年来,随着人工智能技术持续迭代发展,生成式AI带来的新型风险挑战不容忽视。防范AI风险,促进产业良性发展迫在眉睫,帮助公众识别AI生成内容,减少虚假信息传播,增强公众对互联网传播内容的信任,厘清虚假内容生产传播责任链,成为网络信息内容生态治理的重要一环。
与此同时,我国人工智能安全治理体系正在不断完善。此前《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等相关规定已明确提出“标识”概念,并将既有的标识要求延伸至生成式人工智能的安全治理工作中。专家表示,此次《标识办法》的发布与施行,是对标识工作的“再明确”与“再细化”,推进相关规定的落地和落实。
目前,对AI生成合成内容进行标识已成为国际共识,而我国率先打出内容标识“管理+技术”组合拳,将标识工作推进至实践层面,为全球AI治理贡献中国智慧。专家指出,《标识办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为,以合理成本提高安全性,促进人工智能在文本对话、内容制作、辅助设计等各应用场景加快落地,同时减轻人工智能生成合成技术滥用危害,防范利用人工智能技术制作传播虚假信息等风险行为,推动人工智能健康有序发展。
而《标识方法》作为《标识办法》的配套技术标准,明确了生成合成内容标识应当遵循的技术方法,为产业落地提供了参考依据。“‘技管结合’中的‘技术’”,首先体现在强制标准上。”专家介绍,与《标识办法》同步发布的《标识方法》作为首个人工智能领域强制性国家标准,具有一定法律属性,企业提供相关服务时需符合全部条款。通过管理规定与技术标准联动,确保政策可落地、可实施、可考核,形成协同治理合力,并通过持续不断提升技术水平,构建技术能力,实现管理要求与技术手段的有机结合,提升人工智能安全治理能力。
构建“显式+隐式”双层标识体系
强制性国家标准指引产业落地
专家指出,《标识办法》通过构建显式与隐式双层标识体系,形成可识别、可追溯的AI内容标识规范。其中,显式标识的基础要求是能被用户明显感知,根据AI生成与合成内容分模态场景提出具体标识要求。隐式标识则考虑企业实践成本,对技术难点如文本隐式标识、数字水印等不强制要求,提供低成本实施方案,为创新保留空间,平衡安全与管控。
其次,《标识办法》重点关注传播环节,对网络信息内容传播服务提供者衔接显式与隐式标识、用户声明标识与服务、伪造内容识别等方面均作出相关规定。从内容生成到传播建立全链条责任机制,明确各方标识义务,通过元数据验证解决“谁生成的”“从哪里生成的”等关键问题。
《标识办法》还充分考虑用户侧情况,要求服务提供者对用户做出相关提醒,用户也需遵守标识相关规定,同时也给用户申请无显式标识内容的需求留出制度空间。此外,《标识办法》还衔接审核环节要求,对互联网应用分发、深度合成及生成式人工智能备案环节作出提供及核验生成合成内容标识相关材料的相关规定。
区别于《标识办法》对多主体提出相关标识要求,《标识方法》重点聚焦于AI内容制作与内容传播平台,对显式与隐式标识实践给予了具体的标准指引。此外,《标识方法》在给出人工智能生成合成内容标识技术方法的基线要求的同时,也为探索不同应用场景下,兼顾“明显提示用户”和“考虑用户使用体验”预留了空间。例如在驾驶员与车载终端高频语音交互时,如果智能驾驶助手每次语音回复均播报语音标识,不仅影响交互体验,还可能对驾驶安全性造成影响。因此,可通过设置在一轮交互中只提示一次等方式避免频繁提示对人工智能的实际应用造成影响。此外,专家还进一步讲解了《网络安全标准实践指南——人工智能生成合成内容标识 服务提供者编码规则》,对文件元数据隐式标识中服务提供者的编码结构、赋码规则、组织与个人的编码示例做出了详细介绍。
不断完善标识技术体系
探索建立生成式AI治理长效机制
宣讲会上专家强调,人工智能是“矛”与“盾”同步发展的状态,《标识办法》并非生成式人工智能治理的终点,而是实现路径。未来还将不断完善标识技术体系,在原有技术的基础上不断创新,突破数字水印广泛应用的技术难题,探索高泛化性的生成合成内容检测技术,开发更高效的识别AI生成内容的检测工具和水印检测算法,以及基于数字水印的内容防伪技术。同时还将积极参与IEEE、ISO/IEC等国际标准的制定与推广,以及相关国家标准、技术文件、实践指南的研究制定,推动技术认知形成行业共识。
在社会层面,还要探索建立生成式人工智能治理长效机制,引导组织政府、企业、研究机构和社会组织共同参与,推动标识的广泛应用,并以此为基础进一步完善制度体系。此外,还要通过对公众进行标识的说明与合规引导,培育用户正确使用相关服务的安全意识,防范生成合成内容引发的相关风险。
“今年年初,DeepSeek完成了让人们使用AI的教育,《标识办法》则是要进行让用户安全使用AI的教育。”专家表示,随着《标识办法》施行,不断强化用户的标识意识,给AI生成内容“打标”将会逐渐成为一种习惯。这可以提升公众对于信息内容真实性、来源可追溯性的批判性评估能力,提高公众人工智能素养,确保人工智能技术成果普惠共享。
AI谣言治理
暨南大学新闻与传播学院教授林爱珺:
AI内容真假难辨?建议构建人机协同核查机制
在生成式人工智能内容安全及谣言治理的分享环节,暨南大学新闻与传播学院教授林爱珺围绕“AIGC时代多模态虚假信息的识别与人机协同核查”主题作分享。在林爱珺看来,“标识办法”和“标识方法”的实施,有助于公众辨别虚假信息,推进AI从内容生成到传播全链条的治理。
AI多模态能力加剧伪造信息隐蔽性
林爱珺指出,整合文本、图像、音频及视频等多种形式数据的多模态信息具有极强的隐秘性与渗透性。例如,一段伪造的视频不仅有虚假的图像,还配有与之匹配的虚假声音和字幕,不同模态的信息互相补充和验证,若将伪造信息与事实融合于复杂的图像和视频之中,会加剧伪造信息的隐蔽性,同时增加公众辨识的难度。
“标识办法”助力虚假信息识别和溯源
林爱珺强调,AI大模型的权威性表达风格与流畅的叙事逻辑,使得错误信息具有极强的迷惑性,尤其是在多模态虚假信息中,受众往往会将这些虚假内容误认为是真实信息。
如何识别与监测多模态虚假信息?林爱珺表示,“标识办法”要求人工智能生成合成内容添加显式标识和隐式标识,这为虚假信息的识别和溯源提供了支持。
她指出,显式标识通过文字、声音或图形等手段直接展示内容的人工智能属性,标识技术与自然语言处理、深度伪造检测等方法相结合,能有效提高对虚假内容的识别,帮助用户直观辨别人工智能生成合成内容,快速评估其真实性。
隐式标识技术记录文件属性、提供者编码及传播路径等关键信息,能为虚假信息溯源和责任认定提供数据支持。如通过记录和分析信息发布的时间顺序,识别出最早发布信息的节点和账户,从源头上禁止虚假账号发布信息;运用节点分析追踪信息源和传播链条,通过识别出信息传播的关键节点和核心路径,揭示虚假信息的传播轨迹。
需要通过技术、法律、伦理综合手段治理
谈及AI大模型的事实核查能力,林爱珺认为,目前的AI大模型尚不具有鉴别信息真伪的能力:在训练阶段,大模型需要广泛地从互联网搜集各种信息,由于缺乏事实核查机制,这些信息未经筛选便被纳入机器学习的语料库中,导致信息在被利用前未能得到充分核查。
她建议构建人机协同的事实核查机制,通过人工智能、人工审核及公众参与实现多维度数据获取。利用人工智能数据挖掘技术,提取动态网络信息中的有价值数据,为事实核查提供基础数据支持;建立“人工智能+人工”的双重审核机制,对某些专业领域的信息,结合领域专家的知识和背景进行分析判断;借助用户反馈与专家评估,推动人工智能的自我学习与优化,持续提升人工智能的事实核查准确性与效率。
在林爱珺看来,治理人工智能生成合成虚假信息,需要通过技术、法律、伦理的综合手段,建立一个全方位的保障体系。她建议建立“政府-AIGC服务提供者-AIGC服务使用者”三方协同治理框架,共同提升公众的数字素养,增强其对虚假信息的识别能力,防止虚假信息蔓延。
香港中文大学(深圳)副教授武执政:
声音传播多重隐私信息,AI语音标识有必要性
在宣讲活动的“生成式人工智能内容安全及谣言治理分享环节”,香港中文大学(深圳)副教授武执政以“伪造语音生成及其鉴别技术”为主题,从“语音是怎么生成出来的”,以及“如何去鉴别声音”两方面展开了分享。武执政表示,语音的重要性不言而喻,以直播带货场景为例,“视觉决定直播的吸引力,听觉决定直播的销售力”,话语的感染力常常能够更加带动购买的行为。声音不仅可以传播内容,而且还能够传播身份信息、环境信息等,这里面也包含了很多我们的个人隐私信息,现在有许多声音合成相关的技术和产品,这也是要标识AI的重要原因。
现场,武执政介绍了由其团队研发出的“AI合成音频鉴别系统”,他指出,“AI语音合成的检测是比较难的,当前的伪造语音技术不只是可以伪造声音,还能够伪造当前所处的场景,可以预见接下来的几年内也将会有越来越多和声音处理相关的AI模型”。武执政也指出,由于AI合成与其他AI声音处理技术具有很强的相关性,也给伪造鉴别带来了挑战。
出品:南都大数据研究院
采写:南都记者 袁炯贤 张雨亭 方晓林 熊润淼 李伟锋 陈袁 孔令旖
摄影:南都记者 袁炯贤 李炜锋
制图:黄亚岚(腾讯元宝AI)
来源:湖南日报一点号1