摘要:今年全国两会上,全国人大代表、天能控股集团董事长张天任建议,针对人工智能(AI)可能引发的一系列社会经济、道德伦理等问题,应制订《人工智能管理法》,其重点首先即是要建立完整的人工智能科技伦理规范体系。全国政协委员、中国工程院院士陈晓红也表示,在积极构建开源创新
【两会快评】
◎张梦然
今年全国两会上,全国人大代表、天能控股集团董事长张天任建议,针对人工智能(AI)可能引发的一系列社会经济、道德伦理等问题,应制订《人工智能管理法》,其重点首先即是要建立完整的人工智能科技伦理规范体系。全国政协委员、中国工程院院士陈晓红也表示,在积极构建开源创新的AI生态体系时,要促进算力资源共享与模型迭代协同,也要完善AI伦理价值体系。
如今,AI技术如汹涌浪潮般席卷而来,其强大功能为人类社会带来前所未有的发展机遇。然而,在蓬勃发展背后,一系列伦理治理难题如暗礁横亘。其中,AI真实性和AI价值观是不容忽视的两个方面。
在AI发展伴随的真实性挑战中,与人们息息相关的就是虚假信息问题。譬如,基于生成对抗网络的深度伪造技术,能够生成高度逼真的虚假视频,这轻则令个人利益受损,重则影响社会秩序和公共安全。
应对这一挑战,一方面,开发者在模型训练和算法部署的每一个环节,都应融入透明性和可验证性机制,从根源上防止虚假信息的产生和传播;另一方面,应加快推出相关法律法规,对利用AI制造并传播虚假信息的行为予以惩治。
除了真实性难题,AI价值观也是伦理治理的重中之重。我们知道,AI系统的学习基于海量数据集,这些数据往往包含了人类社会的各种偏见。如果现实社会中的偏见没有得到有效纠正,被AI系统学习后很可能进一步放大。
一个典型的例子,是一些西方国家AI面部识别系统面向少数族裔群体使用时有异常高的误判率。有数据显示,在识别有色人种时,几种基于深度学习技术的系统错误率高达20%至30%,而识别白人时的错误率则低得多。这种“AI偏见”的形成,在技术层面,是由于研发者采用的数据库原始样本就存在严重的种族不平等。这甚至可能使算法将深肤色特征与“高风险”联系在一起。一旦金融、安检和执法领域运用此类面部识别系统,就可能导致不公正待遇。
因此,从伦理治理的角度看,研发者应在数据收集、模型训练和算法设计阶段,引入多样性、多元化的视角,避免单一文化或群体偏见主导AI。此外,政府和行业组织则应借助审查机制确保AI最大化遵循基本社会道德,或鼓励跨学科合作,让法律专家、伦理学家和社会科学家共同参与AI的伦理评估。
技术创新无疑是AI发展的强大驱动力,但同时也要为AI这艘科技巨轮配备可靠的导航和护航机制。在这个过程中,每一个参与者,无论是技术研发者、企业还是政策制定者,都肩负共同的责任。
来源:光明网