机器中没有神:跨越人工智能崇拜的陷阱

360影视 日韩动漫 2025-03-21 03:33 4

摘要:在阿瑟·克拉克的短篇小说《上帝的九十亿个名字》中,西藏的一个僧侣派别相信人类有一个神圣的使命:把上帝的名字全部写下来。他们认为,一旦写下来,宇宙就会灭亡。经过几个世纪的手工工作,僧侣们决定采用一些现代技术。两位持怀疑态度的工程师带着强大的计算机来到喜马拉雅山。

人工智能的崛起引发了人们对计算机控制人类的恐慌。但真正的威胁来自于对炒作的盲目崇拜

作者:Navneet Alang

2024 年 8 月 8 日星期四 05.00 BST

在阿瑟·克拉克的短篇小说《上帝的九十亿个名字》中,西藏的一个僧侣派别相信人类有一个神圣的使命:把上帝的名字全部写下来。他们认为,一旦写下来,宇宙就会灭亡。经过几个世纪的手工工作,僧侣们决定采用一些现代技术。两位持怀疑态度的工程师带着强大的计算机来到喜马拉雅山。他们用三个月的时间就完成了工作,而不是花 15,000 年的时间写下上帝名字的所有排列。当工程师们骑着小马从山腰下来时,克拉克的故事以文学作品中最简洁的结尾之一结束:“头顶上,星星悄无声息地熄灭了。”

这是将计算机视为通向客观性或终极意义的捷径的形象——这也恰好是现在人们对人工智能着迷的原因之一。尽管支撑人工智能的技术已经存在了一段时间,但直到 2022 年底,随着 OpenAI 的 ChatGPT 的出现,接近智能的技术才似乎更接近智能。微软加拿大公司总裁克里斯·巴里 (Chris Barry) 在 2023 年的一份报告中宣称,“人工智能时代已经到来,迎来了一波变革浪潮,有可能触及我们生活的方方面面”,并且“这不仅仅是一项技术进步,更是一场社会变革”。这是较为冷静的反应之一。艺术家和作家担心自己会被淘汰,政府正努力追赶和监管,学者们也在激烈地争论。

The science fiction author Arthur C Clarke. Composite: Gemunu Amarasinghe/AP/Guardian design

企业一直渴望赶上这股炒作浪潮。包括微软、Meta 和 Alphabet 在内的一些全球最大公司正在全力支持人工智能。除了大型科技公司投入的数十亿美元外,人工智能初创公司的融资额在 2023 年将达到近 500 亿美元。今年 4 月,在斯坦福大学的一场活动上,OpenAI 首席执行官 Sam Altman 表示,他并不真正关心公司是否每年在人工智能上花费 500 亿美元。他的部分愿景是打造一种超级助理,一种“超级能干的同事,对我的一生了如指掌,每封电子邮件,我曾经进行过的每一次对话,但感觉不像是延伸”。

但也有深信不疑的人认为人工智能是一种威胁。哲学家尼克·博斯特罗姆是主张人工智能会带来生存风险的最著名声音之一。正如他在 2014 年出版的《超级智能》一书中所阐述的那样,如果“我们制造的机器大脑在一般智能方面超越人类大脑……人类的命运将取决于机器超级智能的行为。” 这里有一个经典的警示故事,即人工智能系统的唯一目标(看似无害)是制造回形针。根据博斯特罗姆的说法,该系统会很快意识到人类是这项任务的障碍,因为他们可能会关掉机器。他们还可能会耗尽制造更多回形针所需的资源。这就是人工智能末日论者所说的“控制问题”的一个例子:担心我们将失去对人工智能的控制,因为我们为它建立的任何防御措施都将被领先我们数百万步的智能所摧毁。

事实上,在我们向科技霸主们进一步让步之前,我们有必要回顾一下 20 世纪 90 年代中期互联网的出现。互联网也带来了对新乌托邦的深刻断言,一个没有边界、差异和匮乏的互联世界。今天,你很难否认互联网是一种无可争议的好事。幻想确实成真了;我们可以把全世界的知识装进口袋。但这却产生了一种相当奇怪的效果,让人们有点疯狂,助长了不满和两极分化,助长了极右翼势力的再次崛起,破坏了民主和真理。

这并不是说你应该简单地抵制科技;毕竟,科技也能带来解放。相反,当大型科技公司带着礼物来时,你应该仔细看看盒子里有什么。

目前我们称之为人工智能的东西主要集中在大型语言模型(LLM)上。这些模型被输入大量数据(ChatGPT基本上收集了整个公共互联网),并被训练以在其中找到模式。意义单位(例如单词、单词的部分和字符)成为标记并被分配数值。这些模型学习标记与其他标记之间的关系,并随着时间的推移学习上下文之类的东西:单词可能出现的位置、顺序等等。

这听起来并不令人印象深刻。但最近我让 ChatGPT 写一个故事,讲的是一朵有知觉的云,它因为太阳出来而感到难过,结果却非常人性化。这个聊天机器人不仅创作出了儿童寓言的各个部分,还包含了一个故事情节,最终,云朵“Nimbus”找到了天空的一角,与阳光明媚的日子和解了。你可能不认为这个故事很好,但它可能会让我五岁的侄子很开心。

威斯康星州贝洛伊特学院认知科学教授兼系主任罗宾·泽布罗夫斯基 (Robin Zebrowski) 解释了我所感受到的人性:“我们所遇到的唯一真正具有语言能力的事物就是有思想的事物。因此,当我们遇到看起来与我们一样在用语言表达事物时,我们所有的先验知识都会被吸引,我们会想:‘哦,这显然是一个有思想的事物。’”

这就是为什么几十年来,图灵测试一直是衡量技术是否接近智能的标准测试,该测试以其创始人、英国数学家、二战密码破译者阿兰·图灵的名字命名。测试中,一名人类审讯者通过基于文本的消息向两个看不见的受试者(一台计算机和另一个人)提出问题,以确定哪个是机器。许多不同的人扮演审讯者和受访者的角色,如果有足够比例的面试官被愚弄,就可以说机器表现出了智能。ChatGPT 在某些情况下已经可以愚弄至少一些人。

这些测试表明,我们对智力的理解与语言有多么紧密的联系。我们倾向于认为能够“使用语言”的生物是聪明的:我们惊叹于那些似乎能理解更复杂命令的狗,或者能够用手语交流的大猩猩,正是因为这些行为更接近于我们让世界变得明智的机制。

但是,能够在没有思考、感受、意愿或存在的情况下进行语言表达,这可能就是为什么人工智能聊天机器人的写作如此毫无生气和平淡无奇的原因。由LLM本质上是在查看大量的数据模式并分析它们之间的关系,所以它们经常会吐出一些听起来非常合理但实际上却是错误、荒谬或奇怪的陈述。将语言简化为数据集也是为何,比方说当我要求 ChatGPT 为我写一份个人简介时,它告诉我我出生在印度,就读于卡尔顿大学并拥有新闻学学位——关于这三个方面它都是错误的(我毕业于英国、约克大学和英格兰)。对于 ChatGPT 而言,答案的形式和表达方式比内容更重要,正确的模式比正确的回答更重要。

尽管如此,将LLM视为意义的储存库,然后再重新组合,这一理念确实符合 20 世纪哲学中关于人类思考、体验世界和创造艺术的方式的一些主张。法国哲学家雅克·德里达在语言学家费迪南·德·索绪尔的研究基础上提出,意义是不同的——每个词的意义都取决于其他词的意义。想象一下一本字典:单词的意义只能用其他词来解释,而这些单词的意义又只能用其他词来解释。总是缺少的是某种“客观”意义,这种意义在永无止境的意义链之外,使它停止下来。相反,我们永远被困在这种差异循环中。有些人,比如俄罗斯文学学者弗拉基米尔·普罗普,认为你可以将民间传说故事分解为组成结构元素,正如他的开创性著作《民间故事的形态学》中所述。当然,这并不适用于所有叙述,但你可以看到如何将故事的各个单元(起始动作、危机、解决方案等等)组合在一起,然后创建一个关于有感知云的故事。

如今,人工智能可以将之前毫无关联、甚至是随机的事物,比如多伦多的天际线和印象派的风格,结合起来创造出前所未有的东西。但这也隐含着一种令人不安或不安的含义。这难道不也是我们的思维方式吗?悉尼麦考瑞大学助理教授拉斐尔·米利埃 (Raphaël Millière) 表示,例如,我们知道什么是宠物(我们在家里饲养的动物),我们也知道什么是鱼(在大型水体中游动的动物);我们将这两者结合起来,保留一些特征,丢弃其他特征,形成一个新概念:宠物鱼。较新的人工智能模型拥有这种融合表面上新事物的能力——这正是它们被称为“生成性”的原因。

即使是相对复杂的论证也可以看出是这样的。神义论问题几个世纪以来一直是神学家们争论的话题。它问道:如果绝对善良的上帝无所不知、无所不能、无所不在,那么上帝知道邪恶会发生并能阻止邪恶,邪恶又怎么会存在呢?它从根本上过分简化了神学问题,但神义论在某种程度上也是一种逻辑谜题,一种可以以特定方式重新组合的思想模式。我并不是说人工智能可以解决我们最深层的认识论或哲学问题,但它确实表明,思维生物和模式识别机器之间的界限并不像我们所希望的那样明确和清晰。

人工智能聊天机器人背后有思想的感觉也受到现在普遍看法的推动,即我们不知道人工智能系统究竟是如何工作的。所谓的黑匣子问题通常被描述为神秘的——机器人太先进或太奇特,以至于它们在做一些我们无法理解的事情。这是真的,但并不完全是听起来的那样。纽约大学教授 Leif Weatherby 认为,这些模型正在处理如此多的数据排列,以至于一个人不可能理解它。人工智能的神秘性并不在于幕后隐藏着一种难以捉摸的思想;它与规模和蛮力有关。

然而,即使存在这种区别——人工智能只能通过计算能力来表达语言——仍然存在一个有趣的问题,即思考意味着什么。研究动物智能的约克大学教授克里斯汀·安德鲁斯 (Kristin Andrews) 认为,动物可以完成许多认知任务——记住如何获取食物、识别物体或其他生物——而不一定具有自我意识。从这个意义上讲,智能很可能归因于人工智能,因为它可以做我们通常所说的认知。但正如安德鲁斯所指出的,没有任何证据表明人工智能具有身份、意志或欲望。

产生意志和欲望的因素很大程度上都存在于身体中,不仅仅是明显的性欲,还有更复杂的内在主观性、我们的潜意识以及我们如何作为身体在世界中移动、处理信息并对其作出反应之间的关系。泽布罗夫斯基认为,有理由相信“身体对于我们如何思考、为什么思考以及我们思考什么很重要”。她补充道,“这并不是说你可以把一个计算机程序塞进机器人的脑袋里,就能得到一个具象的东西。”

事实上,计算机可能接近我们所谓的思考,但它们不会做梦,不会想要或渴望,这一点比人工智能的支持者所说的更重要。当我们利用我们的智慧来制定解决经济危机或解决种族主义问题的解决方案时,我们这样做是出于一种道德感,一种对周围人的责任感——我们培养了一种责任感,即我们有责任以具体的、具有道德意义的方式让事情变得更好。

因此,克拉克故事中的计算机模型(某种超越或全知的捷径)可能就是错误的。相反,道格拉斯·亚当斯的《银河系漫游指南》中的计算机“深思”可能更接近。当被问及“生命、宇宙和一切的终极问题的答案”时,它当然会说出那个著名的晦涩答案:“42”。

答案的荒谬性指向了一个容易被遗忘的真理。生命及其意义不能被简化为一个简单的陈述,或一串名字,就像人类的思想和感觉不能被简化为最终由 1 和 0 表达的东西一样。如果你发现自己在向人工智能询问生命的意义,那么答案并没有错。问题本身才是错的。

今年 3 月,我在西雅图郊外的微软总部待了两天。微软是科技界最“全力投入”人工智能的公司之一。为了证明自己有多投入,他们邀请了来自世界各地的记者参加“创新园区之旅”,其中包括令人眼花缭乱的演讲和演示、在似乎供应无穷无尽的园区餐厅用餐,以及在作家通常负担不起的酒店住上几晚。

我们戴着耳塞穿过一个研究中心,以阻挡无人机迷搞出的一阵阵的嗡嗡声。我们参加了许多小组讨论:团队如何整合人工智能,那些参与“负责任的人工智能”的人如何在技术出错之前控制它。很多人都在谈论这项工作将如何影响一切。在一次会议上,和蔼可亲的人工智能平台首席项目经理 Seth Juarez 表示,人工智能就像从铲子变成拖拉机:用他的话来说,它将“提升人类的水平”。

我们看到的一些东西确实鼓舞人心,比如盲人 Saqib Shaikh 的演讲,他花了数年时间研究 SeeingAI。这是一款越来越好的应用程序,可以实时标记视野范围内的物体。将它指向放有罐子的桌子,它会说:“一个红色的汽水罐,放在绿色的桌子上。”关于如何使用人工智能,还有其他充满希望的想法:保存正在消亡的语言,提高肿瘤扫描的准确性,或者更好地预测在何处部署灾难响应资源——通常是通过处理大量数据,然后识别和分析其中的模式。

在微软关于人工智能研究的研讨会结束时,我们每人都收到了一本名为《人工智能造福人类》的书,书中详细介绍了更多利他主义的用途。书中提到的一个项目涉及使用机器学习来预测印度最适合安装太阳能电池板的位置。这是令人鼓舞的事情,让人暂时感到一丝宽慰或希望,也许有些事情会变得更好。但是,许多阻碍印度部署太阳能的问题与缺乏知识无关。更常见的问题是缺乏资源、缺乏政治意愿、既得利益的力量,以及更直白地说,金钱。

乌托邦式的未来愿景常常忽略了这一点:如果发生变化,那么问题将在于某些技术是否以及如何传播、部署和采用。它将涉及政府如何决定分配资源,如何平衡受影响各方的利益,如何推销和宣传一个想法,等等。简而言之,它将涉及政治意愿、资源以及相互竞争的意识形态和利益之间的较量。世界面临的问题——不仅仅是气候崩溃,还有住房危机、有毒药物危机或日益高涨的反移民情绪——并不是由缺乏智能或计算能力造成的问题。在某些情况下,这些问题的解决方案表面上很简单。例如,当有更多更便宜的房屋时,无家可归的人数就会减少。但这些解决方案很难实施,这是因为社会和政治力量,而不是缺乏洞察力、思维或新颖性。换句话说,阻碍这些问题进展的最终将是阻碍一切的因素:我们自己。

大型科技公司所推崇的指数级增长的智能概念是一种奇怪的幻想,它将智能抽象为一种只会不断增长的超能力。从这个角度来看,解决问题就像是仪表盘上的容量,可以简单地调高。这种假设就是所谓的“技术解决方案主义”,这个词是十年前由作家叶夫根尼·莫罗佐夫创造的。他是最早指出硅谷倾向于将技术视为一切问题的答案的人之一。

一些硅谷商人将技术解决方案主义推向了极端。这些人工智能加速主义者的想法最令人恐惧。马克·安德森密切参与了第一代网络浏览器的开发,现在是一位亿万富翁风险投资家,他的使命是对抗“觉醒思维病毒”,并普遍拥护资本主义和自由主义。在去年发表的一篇题为《技术乐观主义宣言》的长文中,安德森概述了他的信念:“没有任何物质问题——无论是自然还是技术造成的——不能用更多的技术来解决”。

当历史学家里克·珀尔斯坦 (Rick Perlstein) 参加安德森位于加州价值 3400 万美元的豪宅举办的晚宴时,他发现一群人坚决反对监管或任何形式的技术限制(安德森在 2023 年底的一条推文中称对人工智能的监管是“威.权.主.义的新基础”)。当珀尔斯坦向同事讲述整个经历时,他“注意到他的观点与他的一名学生有相似之处,那名学生坚持认为历史学家担心的所有古老问题显然很快就会被更好的计算机解决,因此他认为整个人文主义事业都有点荒谬”。

安德森的宣言中还包括一节列举的一系列敌人。其中包括所有常见的右翼眼中钉:监管、自以为是的学者、对“创新”的限制、进步人士本身。对风险投资家来说,这些都是不言而喻的邪恶。自 2008 年以来,安德森一直担任 Facebook/Meta 的董事会成员,这家公司允许错误和虚假信息对民主制度造成严重破坏。然而,他坚持认为,专家们“在别人的生命中扮演上帝的角色,完全不受任何后果的影响”,这显然毫无讽刺意味。

在与专家交谈后,我认为人工智能的前景在于处理人类根本无法处理的大规模数据集。模式识别机器应用于生物学或物理学可能会产生令人着迷的有用结果。人工智能的其他用途似乎更平凡,至少目前如此:获取财务报表和核对数字、记录和总结会议、更有效地分类电子邮件、使访问旅行行程等简单内容变得更加容易。

但这并不是说人工智能是仁慈的。人工智能模型可以在数十亿个数据点上进行训练,但它无法告诉你这些东西是否有好处,或者它是否对我们有用,而且没有理由相信它会有价值。我们做出道德评价不是通过逻辑谜题,而是通过考虑我们身上不可或缺的东西:主观性、尊严、内在性、欲望——所有这些都是人工智能所不具备的。

说人工智能本身就能创作艺术,其实误解了我们追求艺术的初衷。我们渴望人类创造的东西,因为我们关心人类对于作为人和身体在世界上的经历有何感受和看法。

还有一个数量问题。在消除内容创作障碍的同时,人工智能也会让世界充斥着垃圾。谷歌已经变得越来越难用,因为网络上充斥着人工智能制作的、旨在吸引点击的内容。

然而,人工智能与现有系统的融合也令人担忧。正如北卡罗来纳大学夏洛特分校的教授 Damien P Williams 向我指出的那样,训练模型吸收了大量基于现状和过去数据的数据。因此,它们很难避免过去和现在的偏见。Williams 指出,如果要求人工智能重现医生对护士大喊大叫的场景,它会把医生变成男人,把护士变成女人。去年,当谷歌匆忙发布其与其他人工智能聊天机器人的竞争对手 Gemini 时,它制作了“多样化”纳粹分子和美国开国元勋的图像。这些奇怪的错误是一种笨拙的尝试,试图预先解决训练数据中的偏见问题。人工智能依赖于过去的情况,试图解释我们遇到和应对过去偏见的无数方式似乎超出了它的理解范围。

偏见的结构性问题已经存在了一段时间。算法已经用于信用评分等方面,人工智能在招聘等方面的使用也复制了偏见。在这两种情况下,数字系统中都出现了先前存在的种族偏见。这并不是说人工智能不会杀死我们。最近,有消息称,以色列正在使用一种名为 Lavender 的人工智能来帮助其袭击加沙的目标。该系统旨在识别哈马斯和巴勒斯坦伊斯兰圣战组织的成员,然后将他们的位置作为空袭的潜在目标——包括他们的家。据以色列巴勒斯坦+972 杂志报道,许多此类袭击都造成平民死亡。

因此,人工智能的威胁并非真的是一种可以随意杀死人类的机器或系统。人工智能实际上是智能的这一假设导致我们将重要的社会和政治功能外包给计算机软件——不仅仅是技术本身融入了日常生活,技术的特定逻辑和精神及其自由资本主义意识形态也融入其中。

那么,问题来了:人工智能部署的目的是什么、在什么情况下部署、在什么范围内部署。“人工智能能用来让汽车自动驾驶吗?”这是一个有趣的问题。但我们是否应该允许自动驾驶汽车上路、在什么条件下、嵌入什么系统——或者我们是否应该完全放弃汽车——才是更重要的问题,而这些问题是人工智能系统无法为我们解答的。

无论是将人类进步的希望寄托在超人智能上的技术大佬,还是依靠人工智能软件列出目标的军队,每个人都渴望有一个可以依靠的客观权威人物。当我们指望人工智能来理解世界时——当我们向它询问现实或历史,或期望它能如实地呈现世界时——我们不是已经被人工智能的逻辑束缚住了吗?我们被数字垃圾和当下的嘈杂声所淹没,作为回应,我们寻求一个超人助手,从虚假和误导的泥沼中找出真相——通常,只有当人工智能出错时,我们才会被误导。

我们生活在一个真理不稳定、不断变化、不断受到争议的时代。想想阴谋论的盛行、反疫苗运动的兴起,或者种族主义伪科学的主流化。每个时代都有其巨大的损失——对于现代主义来说,是自我的连贯性;对于后现代主义来说,是主叙事的稳定性——而现在,在 21 世纪,对现实的共同愿景这一概念面临着越来越大的压力。

当塑造事物的体系开始衰落或受到质疑时,就像宗教、自由主义、民主等一样,人们开始寻找新的上帝。希望 ChatGPT 告诉我们一些关于这个世界的事情,在这个世界中,有时感觉一切都不真实,这种渴望尤其令人心酸。对于被主观性海洋淹没的人类来说,人工智能代表着超越的东西:能够告诉我们真相的不可思议的逻辑思维。

在克拉克关于西藏僧侣的短篇小说中,同样存在着一种技术意识,即技术让我们超越了凡人的局限。但结果却是一切的终结。克拉克笔下的人物在利用技术使一项高度精神化、手工化、艰苦的任务变得更有效率时,最终抹去了支撑他们走向超越之旅的信仰。

但在现实世界中,也许遇见上帝并不是目的。这是尝试这样做的折磨和狂喜。人工智能的范围、力量和能力可能会不断增长,但我们对它的信仰背后的假设——可以说,它可能会让我们更接近上帝——可能只会让我们离上帝越来越远。

10 年或 20 年后,人工智能无疑将比现在更加先进。即便如此,如果我足够幸运,我会走出家门,耳边会有人工智能助手低语。人行道上仍会有裂缝。我居住的城市仍将处于建设中。即使汽车可以自动驾驶,交通可能仍会一团糟。也许我会环顾四周,或者仰望天空,我的人工智能助手会告诉我一些我看到的东西。但事情仍会继续发展,只是与现在略有不同。还有星星?与现在看起来如此多的变化相比,天空仍将布满星星。

来源:再建巴别塔

相关推荐