AI革命的最大贡献之一,或许是对“意识”等概念的更批判性审视

360影视 欧美动漫 2025-05-27 21:49 2

摘要:这是错误的。即使对人类而言,智能地谈论某种底层现实并不意味着我们真正理解它,科学史上无数被推翻的理论便是明证。然而,这种简化的论断却成为硅谷对人工智能(AI)思考的典型特征。正如厄普顿·辛克莱(Upton Sinclair)曾写道:“当一个人的薪水依赖于不理解

最近,OpenAI的一位联合创始人宣称,“预测文本字符串中的下一个词”意味着“理解导致该词产生的底层现实”。

这是错误的。即使对人类而言,智能地谈论某种底层现实并不意味着我们真正理解它,科学史上无数被推翻的理论便是明证。然而,这种简化的论断却成为硅谷对人工智能(AI)思考的典型特征。正如厄普顿·辛克莱(Upton Sinclair)曾写道:“当一个人的薪水依赖于不理解某事时,很难让他去理解它。”

让我们来探讨三个关于AI的常见误解,以及AI对我们设计它来解决的问题的“理解”,是否最终能转化为我们所指的“意识”。

关于AI与意识的第一个主要误解源于一个常见问题:AI有意识吗?

这个问题似乎要求一个“是”或“否”的答案,仿佛意识是全有或全无的命题。但意识真是这样运作的吗?如果意识是存在于一个光谱上的呢?当我们考虑生物的多样性——它们不同的生命形式和智能程度——难道不难将这种多样性与二元的意识概念相协调吗?

我认为,生物要么有意识要么无意识的观念,是西方哲学传统的遗留产物,这一传统可追溯至柏拉图、亚里士多德、阿奎那和笛卡尔。人是理性的动物,人的精神或灵魂是理性的居所和意识的源泉。而动物则被视为纯粹的自动机器,仅凭本能行事。

然而,我从不相信动物毫无主观体验。我始终怀疑,我们自身的主体性远比二元图景所假设的复杂得多。

威廉·詹姆斯(William James)在《心理学原理》中提出,人类的直觉本能可能比其他动物更多,而非更少。他认为,意识的执行功能源于需要在多种冲突冲动之间进行权衡的需要。生物面对特定刺激时直接采取适当行动是最有效率的,而本能完全可以做到这一点。只有当本能将我们拉向不同方向时,我们才需要退后一步,权衡选项、制定计划并做出决定。

换句话说,除非真正需要,意识并不一定是件好事。在科幻小说《盲视》(Blindsight)中,作者彼得·瓦茨(Peter Watts)提出,人类意识可能是进化的偶然。小说中的外星人更像我们的大型语言模型(LLM),它们快速吸收信息并生成反应,却没有任何身份感。尽管我不完全同意他的结论,但我认为瓦茨质疑意识与理性和智能绑定的叙事是正确的。

如果我们将意识视为一种涉及进化权衡的适应机制——在某些方面耗费更多时间和能量,但在其他方面节省时间和能量——我们就能开始提出更有趣的问题:这种权衡对哪些生物有意义?

例如,很难看出意识对植物或真菌有何益处。树木扎根于地面,能够抵御季节变化和食用其叶果的动物。它们无法回避环境中的各种特征,因此也没有理由去关注这些特征。

相比之下,动物在生理上被设计为需要关注环境。它们拥有感官器官和中枢神经系统来处理感官数据并生成适当行为。但即便如此,也并非所有动物都需要像其他物种那样高度关注周围环境。

短生命周期、每次繁殖产生数百或数千后代的物种,很大程度上可以依靠本能确保下一代中有部分能够再次繁殖。

而寿命较长的动物则更需要规划。特别是寿命较长的掠食者需要擅长策略,思考猎物对其行动的反应,以及它们将如何应对等等。

但最复杂的内心世界属于寿命长且群居的动物。这些生物需要在脑海中构建各种其他生物的复杂模型。它们不仅要考虑掠食者(或许还有猎物),更多思考则涉及同类:家人、朋友、对手、潜在配偶等。意识中的“我”可能是将这些模型向内转化的结果,扩展了处于计划中心的自我。

如果意识是作为需要关注和建模日益复杂的生态和社会环境的生物进化的一部分而出现的,那么对于AI,我们需要问:机器中这种进化的潜在驱动力是什么?

人类的“湿件”(大脑)无法快速执行复杂的政治或其他策略性计算。例如,与计算机不同,人类国际象棋大师依靠“组块”(chunking),通过识别棋盘上具有战略意义的特定模式来思考。而一般而言,人类依赖简化的模型,通过类比当前情境与过往经验来推断正确计划。

但如果机器能够像执行其他计算一样快速完成这类复杂计算,它们会需要停下来思考吗?如果不会带来更好的决策,为什么要放慢速度去深思熟虑、构建环境模型,进而可能构建并反思自身的模型呢?

第二个误解是,意识是在生物的认知复杂性达到某个特定阈值后突然出现的。想象一面镜子:一面镜子只显示世界的单一倒影,但如果两面镜子相对放置,就会产生无限回归。

这种观念认为,一旦生物以最基本的方式意识到自身,就会引发一系列关于自身的思考、关于思考自身的思考,依此类推。其结果是迅速形成一个完整、独立的自我感。

作为人类,我们自然会有这种感觉,历史上我们也倾向于推崇那些迎合我们偏见的哲学家。例如,笛卡尔的“我思故我在”(cogito, ergo sum)在其前提中就暗含了结论。因为“cogito”意为“我思”,他试图证明的“我”早已蕴含在他的假设中。

笛卡尔鲜为人知的同代人皮埃尔·加森迪(Pierre Gassendi)当时就指出了这一点。他认为,我们最多只能说“存在思考”,而不能确定是谁在思考。然而,今天很少有人记得加森迪的名字或他的论点。

尽管如此,加森迪是对的。想想我们有多少次对自己感到陌生,因为只有他人——或许是朋友,或许是心理治疗师——才能指出我们行动的真正原因。大卫·福斯特·华莱士(David Foster Wallace)的短篇小说《遗忘》(Oblivion)很好地展现了这一主题。读者逐渐察觉到我们所读的叙事不可信,并拼凑出另一个完全不同的故事,揭示了人类意识的自欺性和多样性,而非通常被描述的整洁统一的身份。

与其认为意识是在神经复杂性达到某个临界点后突然出现,不如用哲学家亨利·柏格森(Henri Bergson)在《创造进化论》中提出的“虚空”概念来理解意识。

柏格森写道:“所有行动都旨在获得我们感到缺失的东西,或创造尚未存在的东西。”识别某物的存在只需要感官知觉,但识别某物的缺失则需要更高层次的思考。看到天空中有太阳是一种简单的判断,而看到原本应有太阳的地方出现了一个黑洞,则是对判断的再判断。

2006年的电影《启示录》(Apocalypto)生动描绘了“虚空”概念。一部落成员围坐在火堆旁,一位老人讲述了第一个人的故事及其悲伤。各种动物依次试图缓解他的悲伤,给予他不同的礼物:秃鹫给了他敏锐的视力,美洲豹给了他力量,蛇向他展示了大地之秘,等等。

动物们说,现在人类会幸福了。但智慧的猫头鹰不同意:“不,我看到人类心中有一个深如饥渴的虚空,他永远无法填满。这使他悲伤,也使他渴望。他会不断索取,直到有一天世界说:‘我已不复存在,也无任何东西可给予。’”

我认为“虚空”是意识的核心。虚空要求我们去填补它,而我们确实用语言、宗教、政治和故事中的各种象征性构建来填补它。我们的身份是这些构建之一。实际上,维持身份的连贯性成为我们在权衡道德或政治决策时考虑的变量之一。

因此,关于AI与意识的问题是:AI会体验到“虚空”吗?

我不确定,但我认为目前不会。以ChatGPT这样的大型语言模型为例,当你给它一个提示时,它会返回一个看似深思熟虑的答案,然后迅速回到完全inactive的状态。

想想清空脑海中所有思绪有多难。人们学习冥想,参加为期一周的闭关,只为体验几分钟的“涅槃”状态,而这似乎是AI在不执行任务时的默认状态。

这之所以困难,是因为它违背了生命存在的本质。生物是维持在远离热力学平衡的稳态中的生理过程的集合。只要我们活着,这些过程就在不断运转。

人类需要用象征性构建来填补这些纯粹物质过程留下的虚空,不断尝试为它们赋予意义。但我们有什么理由认为AI会以同样的方式遭遇虚空?AI的基础过程已经是符号化的,由清晰的计算机代码定义。这就是为什么它可以在被调用前处于惰性状态,并在完成后迅速返回该状态。

最后一个误解是,语言能力意味着意识。这是图灵测试的一个变体,即语言能力意味着智能。

我们已经看到,有充分理由怀疑智能与意识之间存在必然联系。某物可能在一个领域表现得很智能,但在其他领域完全无能。国际象棋引擎在下棋方面很出色,但它们无法解释自己的棋步,也无法讨论政治。

大型语言模型似乎不同,但真是如此吗?它们能在任何话题上智能地回答问题,这确实让人感觉它们拥有某种通用智能。但要记住,大型语言模型通过从训练数据中进行归纳推理来生成文本,预测给定前文后最可能的下一个语言标记。

这与人类在对话中构建语言的方式不同。人类会构建世界模型以及与对话者共同唤起的世界模型,并从中进行推断。有时,我们会挑战他人的模型,试图通过论证说明其错误。我们认同自己的模型。

但这对AI适用吗?我持怀疑态度。

最近我完成了一些工作相关的在线认证,注意到考试前视频内容由AI朗读。语音生成技术已相当先进,远超Alexa,也比早期的客服机器人强得多。

但它仍有问题。它无法完全匹配人类语言的自然节奏和语调,最大的问题在于处理难以发音的单词。

例如,我所在公司的名字如果没听过,可能会被发成两种方式。AI在这两种发音间来回切换,这很有趣。人类通常会选择一种发音并坚持使用,除非被纠正。我们这么做是因为我们有记忆,并根据经验认为某种发音“感觉正确”,而这种“感觉正确”是构成我们身份的一小部分。

但对于基于概率生成语言的智能来说,当前对一个词的发音并不受过去发音的约束。就像下棋机器人无需对棋步有任何看法一样,大型语言模型与其说在“说”语言,不如说在玩“语言游戏”。

AI革命的最大贡献之一,或许是对“意识”等概念的更批判性审视。正如我试图展示的,AI可能在某种程度上拥有意识,但除非我们首先弄清楚“意识”的含义及其原因,否则我们永远无法接近理解AI是否具有意识。

回答这些问题有望让我们对其他动物的主观体验更加敏感,也对我们常常自欺的方式更加谦逊。至少,我们不应该急于宣布这些古老的哲学争论已结束,仅仅因为这可能对全球文明一隅的少数人有利。

来源:老胡科学一点号

相关推荐