摘要:生成式AI的广泛应用带来了前所未有的创新机遇,从艺术创作到科学研究,其强大的内容生成能力正深刻改变人类生产生活方式。然而,潜在的滥用风险(如深度伪造、信息操纵、隐私侵犯等)也对个人权益、社会秩序乃至国家安全构成严峻挑战。AI生成内容的权责归属模糊、算法偏见引发
生成式AI安全管控任重而道远
科创时讯(编辑/孔明 通讯员/李雯霖 苏申)生成式AI的广泛应用带来了前所未有的创新机遇,从艺术创作到科学研究,其强大的内容生成能力正深刻改变人类生产生活方式。然而,潜在的滥用风险(如深度伪造、信息操纵、隐私侵犯等)也对个人权益、社会秩序乃至国家安全构成严峻挑战。AI生成内容的权责归属模糊、算法偏见引发的伦理争议,以及技术自由创新与监管必要性的矛盾,都要求我们明确划定合理的边界——既不能因过度限制扼杀技术进步,也不能放任自流导致失控。针对这一问题,5月23日下午,由YOCSEF广州举办的YEF2025专题论坛《生成式AI的安全、自由与责任边界探索》于会议中心 5F 509召开。论坛执行主席由CCF YOCSEF广州分论坛候任AC主席广州大学教授苏申、候任AC暨南大学教授夏志华共同担任,30余名来自高校、科研院所、企业专家参与此专题论坛。
第一环节:刘文懋、赵正宇、胡志远作引导报告
绿盟科技首席创新官刘文懋博士在《生成式人工智能的安全风险责任共担》报告中指出,生成式AI并非天生安全,其攻击面广泛,风险贯穿从模型构建、数据引入、部署运维到终端使用的全生命周期。强调基础设施(如云算力平台)与模型服务、数据提供方之间复杂的责任边界,主张构建“责任共担,后果自负”的“双轴框架”安全责任思路:纵轴对应基础设施至应用层的责任上移,横轴涵盖从开发、测试到运营的职责延展。呼吁构建多方协同、责任明晰的信任机制,各环节主体落实可见性、可控性与可溯性,实现技术发展与安全治理共进。
西安交通大学教授赵正宇在报告《人工智能安全可信——从小模型到大模型(智能体)》中指出,生成式AI应用加速扩展了系统攻击面,安全风险已从输入篡改、模型后门扩展至幻觉输出、内容滥用与智能体协同漏洞。面向图文生成、语音合成、视频生成等场景,赵教授展示在内容可溯源、安全水印与输入检测方面的研究成果。提出“安全内生”应嵌入AI系统设计之初,助力构建可信、可控的下一代人工智能基础。他强调,人工智能安全绝非“后置补救”的工程问题,而应成为系统设计伊始即融入的核心范式,推动“安全内生”的可信、可控的技术伦理共同体建设。
维沃移动通信有限公司首席安全研究专家胡志远博士作《生成式内容识别的技术及相关标准》报告,聚焦可信溯源与虚假内容识别两个核心议题,指出主流技术路线:一是内容来源信息跟踪机制,即通过在生成之初嵌入元数据,结合数字签名与区块链实现全链路可追溯;二是基于特征的生成内容检测机制,通过识别图像异常像素、音频非自然节律、语言模型植入标志等“AI指纹”,实现自动化甄别。胡志远提及2025年我国发布《生成内容标识方法》国家标准,以及欧盟、美、日、韩等国际相关法规,标志全球在生成内容治理方面正逐步形成共识。她指出相关标准与技术实现应协同推进,构建面向全球合规、安全可信的AI生成内容管理体系。
第二环节:结合论坛三个议题深入思辨及探讨
首先,围绕议题一“内容安全与创新自由的矛盾:过滤机制的边界如何界定?”及思辨点“生成式AI的内容安全过滤机制(如防止虚假信息、仇恨言论)可能过渡依赖关键词或语义拦截,导致对艺术创作、学术研究等领域的误伤?”进行讨论。
刘文懋指出现有基于关键词的内容过滤机制难以准确理解语义与语境,易误伤创新表达。大模型虽能显著提升语义理解,却在价值评判上仍难取代人类的审慎裁量。因此,生成内容治理应在明确价值观边界的基础上,融合技术手段与制度规范,通过责任压实与分级监管机制,实现内容安全与创新自由的动态平衡。
YOCSEF秘书长谭晓生认为当前法规主导的合规方式虽为必要底线,但在处理生成式内容时面临诸多模糊边界,尤其难以精准区分内容目的、语境与潜在影响。结合使用者身份、意图与场景,实现更具弹性和上下文感知的“个性化合规”或为理想方向。他强调,内容安全治理核心在于可追溯与责任可控,提出从传播路径而非生成意图进行风险防控的治理思路。
专家指出当前依赖关键词匹配与语义拦截的过滤方式,在面对语义多义性与复杂语境时,易造成对合法艺术创作与学术研究的“误伤”。专家强调,过滤机制应明确“法律合规”与“访问控制”边界:前者是确保公共底线的统一规范,后者可依据用户身份与使用目的灵活设定。专家主张以“技术+制度”协同路径推进治理,研究法律、伦理与社会影响之间的动态平衡,构建在合规底线、责任可追溯、传播可控基础上的过滤体系,在保障公共安全的同时最大限度包容合理创新,避免泛化治理压制正当表达。
然后,围绕议题二“责任归属的模糊性:谁为AI的“失控输出”负责?”及思辨点“当生成式AI输出内容导致显示危害(如诽谤、教唆犯罪),责任应由开发者、运营者、使用者(恶意提示)还是模型本身承担?线性法律框架是否足以应对“人机协作”场景下复杂追责?”展开讨论。
广东工业大学教授蔡瑞初认为当前面临在人机协作场景下多角色责任划分的复杂挑战。AI内容生成涉及训练者、数据提供者、模型部署者、平台运营方与最终用户等多个参与主体,责任链条长、环节多,导致定责困难。借鉴因果推断的分类思路,将行为过程中的主观恶意与结果造成的社会危害区分处理,或可构建更具适应性的责任归属体系。
与会专家讨论,AI系统失控输出并非单点可控事件,其合规责任应按照“谁最接近决策边界,谁承担主责”的原则进行分配。一方面,出于监管可控性的考虑;另一方面,出于对中间环节有效追责的现实困境。在执行层面应避免“一刀切”,结合上下游环节、意图与后果设定“责任梯度”,建议引入区块链等可追溯技术增强内容来源与修改历史的审查能力。专家认为,生成式AI的责任分配不能仅依赖线性归因和静态合规框架,而应建立涵盖行为动因、流程节点、数据来源与后果响应的系统性责任网络,并在实践中形成可操作的问责机制,以适应智能内容生产时代的治理需求。
最后,探讨议题三“AI公平还是人公平?”
清华大学副研究员姚苏认为AI在规则明确、数据充分的任务中展现出执行一致性与中立性,具备一定“结构性公平”优势,尤其适合承担初步筛选与规则落实等大规模判断工作。然而,真正的公平不仅源于技术中立,更依赖于人类社会共识与语境理解所定义的“价值判断”。
与会专家指出,公平的标准本质上是人类设定的,AI系统不过是规则的执行工具,无法自行生成价值取向;其“学习”的对象亦源于人类既有偏见与结构性不公的社会数据。因此,AI无法替代人的伦理判断与“温度感知”,在涉及文化、区域发展差异、个体境遇等需情境化评估的任务中,仍需由人主导决策。在治理机制上,专家建议应构建“人机协同”的公平体系,由人定义规则、AI辅助执行、社会机制保障问责,从而实现效率与公正的平衡。唯有在价值明确、流程透明、责任可溯的前提下,AI才能成为推动社会公平的技术力量,而非遮蔽责任与偏见的“中立幻觉”。
广州市信息安全测评中心认证部部长薛诗蓓高度肯定了本次论坛的意义和话题质量,并指出生成式 AI 治理建议从“开发者—使用者—运营者”三维度搭建分层责任体系,并引入区块链等可信技术,实现数据全流程存证与责任可追溯;可借鉴国际风险分级管理模式,在本地实践中按风险梯度配置差异化监管,提升治理精准度;最终目标是在守住安全底线的前提下充分激发技术创新活力,达成安全与发展的动态平衡。
谭晓生总结指出当前AI治理体系亟需构建可追溯、可审查的技术与制度框架,以应对生成式人工智能带来的安全挑战。现有开发者、使用者与运营者之间的责任划分机制仍显模糊,亟待通过制度设计予以厘清。为在保障安全的同时激发创新,应统筹兼顾技术演进与价值底线,形成技术发展与合规监管的动态平衡。建议提升学术界在政策制定过程中的专业支撑能力,与监管实践实现良性互动。
本次论坛围绕生成式人工智能的安全治理与未来展开深入探讨。与会专家从内容安全与创新自由的张力、责任归属的模糊性、AI公平性的伦理边界等议题切入,既追问责任之归属,也叩问公平之本源,于安全与自由之间探寻一条有温度、有韧性的时代新径。
来源:科创视野