视域 | AI伦理的双面镜:当技术同时成为道德挑战者与增强者

360影视 动漫周边 2025-05-12 12:01 1

摘要:人工智能(AI)与人类道德之间似乎存在着一种张力:一方面,人工智能不断挑战人类现有道德秩序,因而我们需要完善伦理规范、注重风险预警;另一方面,人工智能在个体层面强化了人的道德决策能力(如基于智能技术的“道德增强”),在社会层面促进了某些人类基本价值的实现(如生

无论是人工智能对人类道德的挑战还是改善,都关涉在今天技术加速迭代的社会语境中我们如何看待道德的演化方向,即我们如何理解“道德进步”。

原文 :《AI增强是否构成道德进步》

作者 | 浙江大学哲学学院研究员 白惠仁

图片 | 网络

人工智能(AI)与人类道德之间似乎存在着一种张力:一方面,人工智能不断挑战人类现有道德秩序,因而我们需要完善伦理规范、注重风险预警;另一方面,人工智能在个体层面强化了人的道德决策能力(如基于智能技术的“道德增强”),在社会层面促进了某些人类基本价值的实现(如生成式人工智能极大地促成了知识平权)。无论是人工智能对人类道德的挑战还是改进,都关涉在今天技术加速迭代的社会语境中我们如何看待道德的演化方向,即我们如何理解“道德进步”。技术进步与道德进步的关系是数字智能时代的重要理论问题,也是使“科技向善”“科技增进人类福祉”等理念得以清晰的基础概念。

作为一种“道德技术”的AI

萨维列斯库和佩尔松认为,气候危机、恐怖主义、全球贫困等“存在性风险”的加剧,暴露出人类道德能力的根本性缺陷:人类在小型社会演化形成的道德认知架构(如亲缘利他)无法应对超大规模复杂系统的伦理要求。这种认知失效具体呈现为三重困境——空间维度上无法有效协调陌生人社群的伦理诉求,时间维度上缺乏对未来世代的道德关怀,智性维度上受制于偏狭的道德直觉与认知偏差。由此,他们提出了通过生物医学手段进行个体道德动机和道德认知增强的理论框架。然而,传统道德教育的微观调节属性与生物医学增强的干预暴力性,在提升效度与维护自主性和人格同一性之间形成冲突,这催生了以人工智能为载体的新型道德增强模式。同时,近年来在理论层面关于人工道德能动者(artificial moral agents)的广泛讨论,在实践层面大语言模型逐步开始提供道德知识和道德建议,也为AI道德增强奠定了基础。

无论是基于药物、脑刺激、基因编辑等的生物道德增强,还是通过智能算法和大数据提供道德决策的AI道德增强,甚至是传统的减速带这类专门设计用于改变个人态度或行为的环境说服技术,都可以被统称为“道德技术”。这类技术旨在促进行为的利他性、提升道德判断的准确性,让人们更容易作出道德上正确的选择。具体来说,作为道德技术的人工智能主要有三种模式:第一,人工道德能动者,即通过某种“道德算法”形成道德决策智能体,替代人类在特定情境中直接作出决策;第二,人工道德顾问,即通过人工智能提供道德决策建议,帮助人类在复杂的伦理困境中作出合乎道德的选择;第三,苏格拉底式助手,即通过苏格拉底式问答促使人类进行道德反思,培养道德推理能力。相较于直接干预人类生理机能的生物道德增强(如催产素提升共情、基因编辑抑制攻击性),AI道德增强展现出独特优势:AI只通过数据分析和算法建议辅助决策,弥补人类信息处理能力的局限,而不侵入或改变身体结构;AI作为外部增强工具尊重用户的自主性,帮助用户突破情感与直觉的认知偏差;AI不预设道德原则,用户可随时调整参数或选择不同道德框架,特别是大语言模型可以提供实时道德决策支持和道德一致性检查,避免生物增强的刚性限制。

AI道德增强作为一种“道德技术”也面临相应的伦理挑战。首先是道德行为的自动化,其缺乏内在的道德动机,仅仅是外部条件作用的结果,道德行为变得机械化和工具化,长期来看可能会形成“人的人工智能化”;其次是道德多样性的削弱,标准化的道德行为模式削弱了不同文化和个体间的道德多样性,AI驱动的道德标准可能忽视或压制其他形式的道德理解和实践;最后是道德责任的稀释,个体的道德行为越来越依赖于AI技术,可能导致道德责任的稀释,个体可能认为他们的道德行为是由技术引导或控制的,因此自己不需要承担完全的道德责任。而一个更为根本性的质疑是:如果增强系统本身的道德标准源自被增强者的设定,那么如何评价增强的有效性呢?该质疑触及道德实在论与建构主义的根本分歧,不仅暴露出道德技术对元伦理问题的回避,更提出了一个重要的理论难题:人工智能伦理学应当使用什么概念工具或框架来理解和应对直接改变道德的AI技术?

AI道德增强构成道德进步吗

应当如何评估AI 道德增强是不是我们所需要的“向善”技术呢?本文引入“道德进步”(moral progress)的概念来考察该问题。在哲学史上,道德进步一直是备受关注的主题,广泛地指任何道德上向好的变化(如减少暴力、提升福利),狭义上则强调进步需由人类道德能力(如理性、动机)的运用或提升驱动(如废除奴隶制需人类主动变革)。这里的“进步”不同于单纯变化,需满足两个条件:第一,后续状态整体优于先前状态;第二,变化之间存在因果关系。但学界对“优于”的界定存在显著差异,这就构成了认定道德进步的不同标准:一是认知标准,道德规范能够更成功地描述道德实在即构成进步;二是形式标准,道德规范的适用范围和权威性的扩展即意味着进步;三是实质标准,是否存在一个对道德规范进行评价的具有普遍有效性的基础;四是功能标准,对进步的判断来自道德规范是否能满足当下社会中道德的功能,而这一功能来自社会经验。

当代AI道德增强使得道德活动从主客体分立的实践领域转变为由算法框架与人脑神经共同建构的混合现实,这种转换不仅重构了道德判断的生成机制,更改变了道德进步的可能性条件。基于此,本文认为,在功能主义标准之下技术手段对道德进步的驱动才可能具有合法性,理由如下。

首先,启蒙时代以来的趋同式进步观隐含着三个基本预设:第一,道德发展存在终极目标或“历史终点”(如康德的永久和平);第二,所有文化体系都应朝此目标收敛;第三,实现路径依赖理性个体的认知提升。功能主义标准通过解构趋同目的论,提供了一种去中心化和殖民化的进步观,强调道德进步的情境性与地方性,从而更贴合全球文化多样性现实,也更能容纳各种技术手段的不确定性,并为评估技术介入的正当性提供动态标准。

其次,近年来关于道德的心理学、认知科学、神经科学研究不断强化道德判断中直觉、经验及情绪等非理性因素所发挥的作用,导致我们缺乏坚实的理由预设道德判断能够追寻道德真理,从而否定了基于道德实在论的认知标准和实质标准,更倾向于功能主义标准。

最后,其他道德进步标准预设了道德进步至少部分地依赖于个人提高道德认知(社会进步取决于个体进步)的最小道德进步以及道德演化方向,而功能主义标准没有这些预设条件,从而避免道德进步内在价值的诘难,如亚里士多德的“道德努力”(moral struggle)和康德的“道德自主”(moral autonomy)。在功能主义标准之下,道德被认为具有一种功能,首先确定当代社会道德的构成功能,然后将道德进步定义为履行该功能的效率的提高。凡能增强道德系统合作维持功能的技术手段,即构成进步要素。

那么,在功能主义标准之下AI道德增强如何构成道德进步呢?功能主义标准的代表人物基切尔认为,道德是一项始于人类原始祖先的“工程”或者说“社会技术”,道德准则不断变化发展,之所以至今仍在推动这项道德工程持续进行,就是因为其主要功能是解决在社群中随着群居数量及合作范围的扩大而必然引起的“利他主义的失败”(altruism failures)问题。而道德进步的方式是,确定哪些道德实践中的问题可以被我们可辩护地视为道德问题,哪些解决方案是受到辩护的解决方案,人类通过理想协商确定当代的“道德问题”和“解决方案”,只有当真正的道德问题得到成功解决时,道德进步才会发生。

当代的“道德问题”集中表现为新兴技术引起的利他主义失败,也就是科技伦理问题,传统规范伦理理论面对新兴技术显得乏力。当前科技伦理问题的突显是由于技术的演化速度大大超过了人类道德的演化速度,产生了道德滞后问题(moral lag problem)。在强的意义上,可以利用AI 道德增强加快道德的演化,弥补技术所引起的利他主义的失败。AI道德增强可快速识别新兴技术(如基因编辑、自动驾驶)的伦理挑战并提供规范性解决方案,消除道德教育或文化演化的迟缓性。相较于人际说服,人们对自动化技术可能更信任,更易接受其道德建议,从而克服社会认知偏见(如权威偏见或情绪干扰),因此,AI 道德增强能够比社会文化、道德教育更高效地实现该功能,新技术所带来的道德危机可以由新技术自身去应对。即使在弱的意义上,AI道德增强也能够为科技伦理治理提供更多样化的“伦理工具箱”。因此,AI道德增强可能作为当代“道德问题”的解决方案,构成道德进步。

技术进步与道德进步的关系

人工智能既是道德挑战,又是道德机遇。作为“道德技术”,AI可通过增强人类认知、提供决策支持、加速道德问题解决,推动功能主义意义上的道德进步。然而,技术进步从不等于社会进步,2024年诺奖得主阿西莫格鲁和约翰逊在《权力与进步:科技变革与共享繁荣的千年角力》(Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity)中指出:“纵观历史,技术变革——无论是中世纪的农业进步、工业革命,还是今天的人工智能——一直被视为繁荣的主要驱动力,为公众利益服务。然而,现实情况是,技术是由有权有势的人想要和相信的东西塑造的,它为那些已经有权有势的人创造财富、社会尊重、文化声望和进一步的政治发言权。对于我们大多数人来说,有一种进步的错觉。”他们进一步提出,数字时代的权力失衡主要体现在以下方面:自动化与不平等,即数字技术和人工智能的过度自动化导致就业机会减少,劳动者被边缘化,而科技巨头通过数据垄断和算法控制积累财富,加剧收入差距;监控与民主侵蚀,即大规模数据收集和侵入式监控技术被用于商业和政治控制,削弱了公民隐私和民主参与。

在AI时代,人工智能推动的道德进步也并非自发产生,而是通过制度制衡、公众参与(技术民主化)和伦理约束实现的。历史上的农业革命和工业革命曾因权力失衡导致道德倒退,而20世纪工人运动通过抗争实现了技术的共享,技术红利必须通过公正的制度分配才能转化为道德福祉。因此,技术发展的方向及其成果分配往往取决于权力结构和社会选择,而非技术本身的“自然结果”,一旦某种技术范式与权力结构绑定,其路径依赖将阻碍社会价值的更新。从农业革命到工业革命,从数字技术到人工智能,技术的“进步”叙事往往掩盖了其对社会公平与道德秩序的颠覆,当人工智能被宣称是“向善”的工具时,我们需警惕其背后潜藏的权力逻辑——技术如何被设计、由谁控制、为谁服务,才是决定道德进步与否的关键。回到功能主义的道德进步标准,若道德的功能是解决合作困境,那么AI治理的目标应是扩大合作的包容性,而非让技术成为少数人的统治工具。今天的人工智能伦理学研究的基础是技术的政治哲学。

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1950期第5版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

本期责编:潘 颜

《社会科学报》2025年征订

点击下方图片网上订报↓↓↓

拓展阅读

见地 | 修辞学的“护城河”:AI为何难以突破人类语言的深层逻辑?

数字化 | AI与人类价值观的“对齐困境”:技术之外,我们还能做什么?

来源:社会科学报

相关推荐