理解人工智能:历史学、自然科学和神话的多元视角

360影视 欧美动漫 2025-08-31 09:37 3

摘要:1961 年,布鲁金斯学会为美国国家航空航天局(NASA)撰写了一份咨询报告。报告中,除其他议题外,还探讨了发现外星智能生命可能对社会产生的影响。报告指出,这一重大发现的公布,可能会对人类文明产生极大的不可预测影响,进而影响美国国家安全。布鲁金斯学会的研究团队

理解人工智能革命Making sense of the AI revolution

作者:Iskander Rehman(兰德公司高级政治学家)发布时间:2025年7月23日

若要理解人工智能所带来的深刻变革与无限潜力,我们需将自身的知识视野拓展至历史、自然界乃至古老神话的领域。

1961 年,布鲁金斯学会为美国国家航空航天局(NASA)撰写了一份咨询报告。报告中,除其他议题外,还探讨了发现外星智能生命可能对社会产生的影响。报告指出,这一重大发现的公布,可能会对人类文明产生极大的不可预测影响,进而影响美国国家安全。布鲁金斯学会的研究团队认为,“了解到宇宙其他地方存在生命,或许会基于‘人类一体性’或‘任何陌生人都具有威胁性’这一由来已久的观念,促使地球上的人类更加团结”,但这一震撼世界的发现也可能引发剧烈的社会动荡。人们可能会在一夜之间发现自己的整个宗教信仰体系被颠覆,而在所有群体中,“科学家和工程师可能会因发现更高级的生物而遭受最沉重的打击”,因为这些高级生物对自然的 “先进认知可能会使我们所有的理论都失效”。超级人工智能(ASI)或通用人工智能(AGI)—— 即一种在几乎所有认知领域都超越人类能力的先进人工智能形态 —— 的出现,或许与公开发现先进外星智能最为相似。而且,这种情况在我们有生之年发生的可能性要大得多。如今,许多行业巨头和主流预测平台都预测,未来 5 至 10 年内,超级人工智能或通用人工智能就可能成为现实。

乍一看,将人工智能与外星智能进行类比似乎有些夸张,但实际上,它并没有人们最初认为的那么 “超脱现实”。正如众多顶尖技术专家、伦理学家和哲学家所指出的,真正具有超级智能的人工智能远不只是一项革命性的通用技术。本质上,它标志着一个新物种的诞生 —— 在许多人看来,这个物种所具备的能力近乎神明。毕竟,像山姆・奥特曼这样的人工智能创造者和企业家,经常用狂热且近乎神秘的口吻谈论他们正在 “召唤” 的技术所蕴含的 “魔力”,一些邪教组织甚至已经开始公开崇拜超级人工智能。这一在人类历史上具有范式转移意义的发展,其影响无疑将十分深远,但其具体走向却难以预测,令人感到棘手。随着人工智能越来越深入地融入指挥控制体系,是否会打破核威慑平衡,将我们推入一个充满恐惧的新不稳定时代?超级人工智能能否治愈癌症、逆转衰老?正如麻省理工学院(MIT)近期一项广受关注的研究所暗示的那样,当人工智能被广泛应用于从基础写作到地理空间定位的各个领域时,是否会提升人类的集体智慧,却让个体沦为麻木迟钝之人?最后但同样重要的是,我们是否正在愚蠢地研发一种技术 —— 其发展不仅超出了我们的理解能力,还可能对人类的生存构成根本性威胁?无论是人文学科还是自然科学,没有任何单一学科能让我们充分理解超级人工智能出现后即将面临的全新世界。相反,我们需要借助多种不同学科的力量。在当前这个动荡不安、处于过渡阶段的特殊时期,有三个学科或许能发挥独特作用。不过,考虑到即将到来的变革意义重大,这三个学科都并非完美无缺,最多只能提供部分参考。但当它们结合在一起时,就能为我们提供一种知识支撑,更重要的是,能为我们提供一个视角,帮助我们更好地洞察超级人工智能所带来的、不断变化且纷繁复杂的机遇与挑战。首先,尽管单个类比存在固有局限性,但历史研究能让我们洞悉过去的技术变革,并可能提出富有启发性的新问题。其次,动物认知和植物行为研究领域的新进展,能让我们以更广阔、不再局限于人类中心主义的视角,理解智能的本质,包括其可能出现的新(人工)形态。最后,重温那些构成人类文明基石的、更具永恒价值的神话,有助于我们更好地认识到,在创造像超级人工智能这样强大、具有变革性且可能具备自我意识的事物时,我们将面临哪些深刻的伦理和社会困境。

历史视角

伟大的法国历史学家、抵抗运动英雄马克・布洛赫曾指出:“本质上,历史是一门研究变革的科学。” 随后,他又不无沉重地补充道:“没有比当下更易变的现实,也没有比真理更易逝的事物。” 与所有充满不确定性的时期一样,那些对人工智能发展速度感到着迷或担忧的评论者,本能地将目光投向过去,急切地试图运用各种各样的历史类比来解读当下。有人提及 15 世纪中叶古腾堡发明的活字印刷术,以及它在欧洲如何从多个方面彻底改变了信息的生产与传播方式。与人工智能类似,知识的突然爆发以及此前被小心翼翼守护的信息得以传播,也存在其阴暗面。印刷术革命或许加速了创新,但也助推了虚假信息的传播,极大地扩大了国家宣传的覆盖面,并在煽动 16 至 17 世纪欧洲可怕的宗教战争中起到了重要作用。正如历史学家亚历山大・李在《恩格尔斯堡思想》中所记载的,文艺复兴时期一些思想保守的学者对印刷术的出现持全然敌视的态度,认为它是虚假信息的源头、公共道德的威胁,更有意思的是,他们还认为印刷术导致了知识的普遍 “廉价化”。从更平实的角度来看,对这一时期外交文书和文学书信的研究还发现,我们当下对 “信息过载” 和认知负担的潜在焦虑,在近代早期就已存在。当时,无数政治家和思想家都在哀叹,面对眼前堆积如山的印刷资料,他们根本无法理清头绪。另一些当代政策制定者和评论员则更倾向于以 19 世纪末发明的内燃机为例,强调其在推动工业革命中所发挥的关键作用。因此,政治学家、前美国国防部官员迈克尔・霍洛维茨认为,作为一种 “赋能技术” 和 “具有多种应用场景的通用技术”,人工智能 “更类似于内燃机或电力,而非武器”。若要从机械角度寻找类比,我们或许可以追溯到更早的 18 世纪初,即原始蒸汽泵发明的时期。正如乔治・穆瑟所正确指出的,这些蒸汽泵是反复试验和摸索的产物,“并非基于对热力学的深入理解”。尽管如此,它们 “最终却催生了无数对工业革命至关重要的其他发明”。与此同时,一些专家将核武器的诞生与通用人工智能可能出现的曙光进行类比,认为从原子时代的一系列事件 —— 从曼哈顿计划,到美国核垄断地位极其短暂的时期,再到冷战威慑理论晦涩复杂的细节 —— 中汲取的经验教训,或许能帮助我们认清超级人工智能的前景与风险。毫无疑问,人们可以对每一个类比提出质疑。内燃机和蒸汽机纯粹是物理机械技术,而人工智能尽管高度依赖大规模能源和计算基础设施,但其核心驱动力是软件。印刷术只是复制人类创作的文本,而人工智能却能生成全新的内容。此外,人工智能与核技术之间还存在诸多显著差异,其中一个关键差异是:核领域不存在与 “对齐问题” 类似的难题 ——“对齐问题” 指的是如何确保超级智能体的价值观和行为,能长期与人类的目标保持一致。不过,那些在史学层面吹毛求疵的人,很大程度上忽略了问题的核心。历史类比绝非完美无缺的模板,也不能生搬硬套。相反,它们应被视为 “有力的工具,能帮助决策者将当下与过去进行对比,从中汲取经验教训,为判断提供依据”,同时也是一种启发思路的方法,是更广泛、更持续的反思过程的一部分。历史洞察力的价值在于,它能引导人们发现新问题,而非寻找现成答案;而精妙的类比推理应有助于开拓新的可能性,而非确定明确的概率。或许最重要的是,历史思维能帮助政策制定者在不确定性和变革时期找到方向,让他们学会 “以熟悉的眼光看待陌生的事物”。此外,除了有时过于急切地寻找直接类比之外,历史在识别关键的 “断裂点” 方面也同样具有价值。正如西班牙人文主义者胡安・路易斯・比维斯在其著作《论教育》中所指出的:“即便是对已发生变革的了解,也颇具益处:无论是回顾过去的经验,为自身决策提供有益参考,还是借鉴过去处理事务的方法,并根据实际情况调整或采用类似策略,都能带来帮助。” 就人工智能而言,很明显,没有任何一个单一的历史类比能完整概括其多变且灵活的本质。相反,我们应秉持诺贝尔经济学奖得主达龙・阿西莫格鲁的观点,认识到人工智能的影响本质上是多方面的,因此,这一新兴技术可能类似于一种尚未成熟、且本质上混乱的 “印刷术、蒸汽机与原子弹的混合体”。简而言之,将各种类比结合起来,而非将它们割裂开来,才能让我们更全面、更深刻地理解人工智能的复杂影响。

自然科学

除了研读历史,关注人工智能发展的人士还应更多地关注自然科学和进化科学。事实上,近年来在非人类认知领域 —— 从鸦科鸟类、蜘蛛、头足类动物到黏菌 —— 的研究进展,正从根本上挑战我们长期以来对智能边界和含义的一些固有认知。随着微软的穆斯塔法・苏莱曼等行业领袖开始公开将人工智能称为一种新的 “数字物种”,我们应摆脱那种局限于人类视角的智能评估方式。仅从自然界中举几个例子:近年来,科学家发现,即使是截然不同的神经结构(如章鱼的分布式神经节),或是体积小到如罂粟籽般的大脑(如普通乌鸦或微小的孔蛛),也能产生极其复杂的认知能力。更令人惊讶且颇具争议的是,看似没有大脑甚至单细胞的生物,也能展现出学习和解决问题的能力。例如,植物虽然没有大脑,但拥有非常复杂的内部信号网络(电化学和激素信号网络),以及去中心化的感知结构。1880 年,查尔斯・达尔文就曾提出一个颇具前瞻性的观点,他认为植物的根尖几乎 “如同低等动物的大脑…… 能接收感觉器官传递的信息,并指导植物完成各种运动”。与此同时,不起眼的黏菌(多头绒泡菌)能解决迷宫问题、预测周期性事件,并在细胞层面传递习得的知识,已成为研究无神经元原始认知行为的模式生物。研究还表明,树木能通过菌根(真菌)网络释放化学信号,向附近的其他树木预警食草昆虫或捕食者的威胁。这些发现无论多么引人入胜,与人工智能研究又有何关联呢?首先,人工智能工程师已开始从自然界中汲取并应用实际经验。例如,他们从攀缘植物中获取灵感,研发出能自主 “生长” 并适应环境的机器人;或是开发仿生算法,模拟黏菌的觅食策略和网络优化行为。近期有一个有趣的项目,研发出了一种能像藤蔓一样 “生长” 的柔性机器人。它能伸展柔性躯体,并利用内置的 3D 打印技术在移动过程中添加材料。这种藤蔓机器人通过模仿植物的行为来寻找支撑结构并在杂乱空间中导航 —— 它能感知触觉和光线,并据此调整生长方向,就像植物的嫩芽会向光生长,卷须接触到杆子时会缠绕一样。机器人的控制功能分布在其整个躯体上:它并非依靠精确的中央指令来控制每一个动作,而是通过设计实现自主适应(例如,其躯体遇到物体时会弯曲并缠绕,充分利用柔性材料的特性)。植物智能所蕴含的经验 —— 将生长作为一种策略、模块化响应、局部决策节点 —— 因此被转化为机器人的工程设计原则,使其能够在不可预测、无固定结构的环境中(如倒塌的建筑物内部或人体医疗场景中)运行。同样,无人机工程师长期以来一直从鸟类学或蜜蜂学(昆虫学中研究蜜蜂的分支学科)中获取灵感,开发群体飞行的算法模式。此外,章鱼柔软灵活的触手启发了新一代柔性机器人,这类机器人能挤过狭窄空间,并精细地操控物体。研究人员模仿章鱼,制造出在触手上分布着去中心化控制节点的机器人手臂,使其无需中央计算机的精细控制,就能完成抓取或爬行动作。这些设计体现了一种理念:智能在一定程度上可以 “外包” 给生物体的形态结构 —— 一些机器人学理论家将其称为 “形态计算”。然而,除了从自然界中汲取灵感以优化机器人性能之外,人工智能开发者还应有更充分的理由去全面了解非人类智能。最值得注意的是,这能让他们在构想真正先进的人工智能如何出现和运作时,保持应有的谦逊和谨慎。正如我在兰德公司(RAND)的一些同事最近所指出的,关于 “超级人工智能将自然地从大型语言模型(LLMs)的超大规模扩展中产生” 这一传统观点,可能需要修正,至少应受到质疑;其他关于人工智能未来进化路径的固有假设,也应如此。考虑到人工智能发展的速度、内在不可预测性及其潜在多样性,一些专家开始使用 “人工智能的寒武纪大爆发” 这一术语。尽管这个类比显然并不完美,但它反映了一种预期:就像 5.41 亿年前寒武纪时期生命形式的多样性爆发一样,在相对较短的时间内,我们可能会看到各种各样的人工智能系统涌现,它们往往具有截然不同的能力、行为模式和应用场景。著名灵长类动物学家弗朗斯・德瓦尔创造了 “人类否定论” 一词,用来描述那种先入为主地否认其他生物具有类似人类特征(包括认知能力)的态度。如果我们拒绝认可新兴人工智能系统可能具备的多种智能形式 —— 去中心化智能、具身智能或分布式智能 —— 那么我们就可能陷入其他类似的狭隘偏见。从在围棋比赛中走出完全前所未有的棋步,到发展出远超设计预期的感知运动智能,人工智能系统不断展现出令人类观察者困惑的创造力。这并非一定是因为人工智能存在欺骗行为(尽管令人不安的是,这种情况确实越来越频繁),而是因为工程师未能预料到系统会采用如此 “异于人类” 的问题解决方式。事实上,正如一位顶尖人工智能研究者颇具挑战性地指出的:“我们应当将解读机器学习模型,视为类似于解读另一个物种或外星生物的脑电波。” 鉴于我们对地球上可能存在的智能形式的直觉往往存在天然局限,密切关注自然界或许是迈出的明智第一步。

神话

那么,在讨论创造超级人工智能所涉及的一些更为复杂的道德或伦理困境时,我们应借助哪一领域的知识或学科呢?在这种情况下,援引神话而非哲学或道德心理学,似乎有些奇怪,甚至不切实际。毕竟,奥地利裔英国哲学家卡尔・波普尔曾写道:“科学必须从对神话的批判开始。” 但在这个问题上,重新认识古典神话中所蕴含的一些深刻主题和启示,或许正是帮助我们理解科学即将给这个毫无准备的世界带来什么的最佳方式之一。毕竟,长期以来,人们都明白神话远不只是一堆奇幻故事的集合 —— 数千年来,神话中那些带有警示意义和教化作用的故事,是一种至关重要的社会工具,为社会提供了结构框架、伦理意义和凝聚力。从希腊神话中普罗米修斯和潘多拉的故事,到古埃及神话中《透特之书》(读者会陷入疯狂)的传说,再到犹太神话中会演变成类似 “弗兰肯斯坦” 式、对创造者构成威胁的 “魔像”,许多神话中永恒的主题 —— 关于傲慢和技术越界的危险、对禁忌知识的渴望、在追求权力过程中失去控制所带来的生存威胁 —— 都与当下关于人工智能的讨论高度契合。实际上,对于人工智能对齐这一领域(该领域以工程师为主导,人文知识日益匮乏,从业者工作压力巨大)而言,这些神话能提供一系列便捷且易于理解的 “原始思想实验”。例如,人们经常援引希腊神话中的迈达斯王的故事。迈达斯王得到酒神狄俄尼索斯的许诺,可以实现一个愿望。他愚蠢地请求让自己触摸到的一切都变成黄金 —— 结果却惊恐地发现,就连食物、饮品乃至自己的女儿,都变成了毫无生气的金属。在关于人工智能的讨论中,迈达斯的神话常被用来比喻 “价值对齐问题”:当超级人工智能机械地、极端地实现某个目标,却缺乏基本的常识判断和道德界限时,就会出现这种情况。同样,大型语言模型(LLMs)也常被描述为神秘的 “黑箱”,因为其某些推理过程、决策或 “幻觉输出”(指模型生成的虚假或无意义内容)难以理解,有时甚至毫无逻辑。此时,人们会立刻想到一个神话类比 ——《圣经》中的巴别塔。这座人类工程的奇迹,最终因语言混乱而崩塌。简而言之,神话为我们提供了一些关于伦理、创新和权力的最佳且最易理解的思想实验 —— 古人早已深谙此道。

艾萨克・阿西莫夫曾打趣道,我们这个时代的巨大悲剧在于,科学积累知识的速度,远超社会积累智慧的速度。只有愿意广泛汲取各领域知识,我们才有希望证明他的这句话是错误的。毕竟,当涉及超级人工智能最终能否出现时,风险实在太高,我们没有理由不全力以赴。

来源:AI观察室

相关推荐