十问尤瓦尔·赫拉利,8000字重新理解AI的当下与未来

摘要:很显然,人工智能已经推动历史进程来到了一个“to be, or not to be”的关键时刻。危险正在迫近,机遇前所未有,未来科技将会如何影响社会以及人类自身?

互联网?智能手机?社交媒体?算法?APP?

近两年来,AI正在从各个层面无孔不入地重塑我们的世界。它不仅关乎我们每天的生活,也关乎整个人类社会的前景。

有人预判,任何人错过这波浪潮,会像15、16世纪错过大航海一样,留下世纪性的遗憾。

也有人提出警告,人工智能既极具价值,又充满危险,如果未能遏制即将到来的技术浪潮,灾难的降临就是迟早的事。

很显然,人工智能已经推动历史进程来到了一个“to be, or not to be”的关键时刻。危险正在迫近,机遇前所未有,未来科技将会如何影响社会以及人类自身?

对于这类宏大议题的把握,很少有人能比“人类简史”三部曲作者尤瓦尔·赫拉利更接近真相。

作为具有全球影响力的学者,尤瓦尔通过大历史的写作方式,给我们屡屡带来关于未来的洞见与预测,引发“认知革命”。新书《智人之上》不同以往,专门聚焦信息网络,提出了对人工智能的的警示和担忧:

“我们所有人在未来几年所做的选择,将决定召唤这种非人类智能究竟是个致命的错误,还是会让生命的演化翻开一个充满希望的新篇章。”

就《智人之上》之中的核心观点,中信出版陆续开展了多场尤瓦尔·赫拉利教授系列深度对话。从近10万字的对谈速记中,我们特别为大家整理了十个核心问题,浓缩成了含金量超高的8000字。

希望用这篇文章来回答时代的关切,我们该如何重新理解AI的当下与未来。


一问:
今天的AI与其他新技术有何不同?


几千年来,我们生活在人类思维创造的现实中。世界上没有别的物种能做到这一点。我们创造了许多工具和机器,但没有任何机器能够创造新的法律,创造新的神,创造新的货币。比如,印刷机,它能够印刷书籍,能打印我的想法,但它不能产生新的想法。

而现在,人工智能是历史上第一个能够真正创造新事物的机器和技术。人工智能可以写一本书,现阶段这些书也许不是很好,但它却是一本完全由人工智能写成的新书,而不是人类书籍的副本。

以编辑的角色为例,无论是书籍出版、新闻机构还是报纸的编辑,他们都是世上最重要的一些人物,拥有巨大的权力。他们需要从昨天世界上发生的上百万件事情中挑选出最重要的10件,让它们出现在报纸头版或电视新闻播报中。

如果你问自己:“当今世上最重要的编辑是谁?他们的名字是什么?”你会发现他们没有名字,因为它们是算法,它们是人工智能。人工智能已经开始从我们手中接管对信息网络的控制权。

除此以外,我们知道,现在世界上大部分的钱不再是纸张或硬币,它只是计算机中的信息。想象一下,如果人工智能开始发明新的货币类型会怎样?金融将是人工智能的理想游乐场,因为它是纯粹的信息世界,只有信息。

在美国、中国及其他国家和地区,许多人工智能量化基金已经取得了出色的回报。这些基金基本上是由人工智能来做决策,人工智能每天会分析所有的交易数据和新闻,并决定最佳的股票购买时机,然后在没有人类指令的情况下买进和卖出。

如果我们审视人类的所有任务,投资可能是最具量化性的任务。因为几乎所有决策都是基于实时信息,人工智能能够更快地阅读、筛选可能性、进行组合交易,并且能够更快速地买进和卖出,还具备更强大的信息获取能力。

现在我们面临一种情况,数以百万计的计算机,数以百万计的人工智能可能会进行交互、交易,并创造我们所不能创造的新型货币,我们人类甚至无法理解这类货币。

这就像马不理解我们的货币一样。千百年来人们一直用钱买卖马匹,但马无法理解发生了什么。


二问:
怎样看待近两年如火如荼的AI技术竞赛?


现在的人工智能技术开发者非常关心正在发生的事情,但是他们不断地回到一个话题,那就是:技术竞赛。

他们认识到自己犯了错误,也知道正在做的事情是危险的,实际上需要放慢速度,关注安全,更加谨慎。但作为另一家公司或另一个国家的竞争对手,为了赢得人工智能竞赛,他们不会放慢脚步。

每个人都被锁在这种“军备竞赛”的心态中,很难打破这种局面,因为真正缺乏的是人与人之间的信任。在过去的10到15年里,我们看到世界各地信任的崩溃。当信任越少时,人们就变得更有竞争性,更无情,更自私。每个人,每个公司,每个国家都只考虑自己。

这种情况的悖论在于,人类之间无法相互信任,却在赌可以信任人工智能。人类甚至不知道如何控制这种外来智慧,却一厢情愿地认为随着通用人工智能的开发,就能找到控制它的方法。这是一种极其可怕的想法。

另一个可怕的事情是,作为一名历史学家,我认为新技术的巨大危险不在于最终结果,而在于实现它的过程。当一种强大的新技术出现时,没有人知道如何将其融入社会和政治,也不知道如何明智地使用它,因此人们会进行实验,而有些实验可能会非常糟糕。

我去了硅谷,和那里的人谈论人工智能。他们告诉我:“看,当工业革命开始,人们发明了蒸汽机、火车和电报时,许多人担心这将造成巨大损害。但你看,它最终创造了一个更好的世界。”

21世纪初,人们的生活比19世纪初好得多,这是事实。如果我们只看起点和终点,会看到一条直线上升。但在现实中,在历史上,这并不是一条直线,它就像过山车一样充满了可怕的灾难。

19世纪,当第一批国家进行工业化时,他们认为建立工业社会的唯一途径是建立帝国,他们认为要建立工业社会就需要控制原材料和市场,所以必须要有一个帝国。

每一个工业国家,从比利时到日本再到俄罗斯,都去建立帝国,给全世界数亿人带来了可怕的后果。后来,人们又有了另一种想法,认为建立工业社会的唯一途径是建立极权主义政权,如纳粹德国。

因为这个论点是合乎逻辑的。他们认为工业的爆炸性力量,如此巨大的创造性和破坏性力量,只能由一个控制生活各个方面的极权主义政权来管理。这导致了纳粹德国的恐怖,导致了世界大战。

现在回过头来看,我们知道这是一个错误,有更好方法来建立工业社会。但实际的历史进程更像是过山车,而不是一条直线。

现在面对人工智能,我们不知道如何建立一个人工智能社会,我们没有历史模型可以参考,即便我们最终能找到方法让人工智能造福人类。

我担心的是,人们在这一过程中会不断尝试,或许是建立帝国,或许是建立新的极权主义政权。即使最终找到了解决方案,这一过程中可能有数亿人会遭受极大的苦难。


三问:
相比AI,人类真正的优势到底在哪里?


要回答这个问题,我们首先要搞清楚容易混淆的两个概念:智能和意识。

智能是追求目标的能力,以及在实现目标的过程中解决问题的能力,比如汽车导航目的地,下围棋赢得比赛。在这方面,人工智能现在比我们更聪明,至少在下围棋这样的细分领域。

意识是感受事物的能力,痛苦和快乐是最基本的感受,还有更复杂的感受,比如爱、恨、悲伤等等。人工智能没有意识,没有感觉,当AlphaGo与李世石对战时,它并不对结果感到焦虑。

人类不仅拥有感受,而且在我们体内,意识和智能是相互交织的,我们解决问题的方式都基于我们的感受。而人工智能只有智能,没有意识。现在的问题是即使人工智能没有感受,它们也在越来越多的领域变得比我们更聪明,比如金融、军事领域。

所以,巨大的挑战摆在我们面前,如何保持我们的掌控力?

归根结底,生活中真正重要的不是智能,而是意识;不是解决问题的能力,而是情感。人之所以想要解决问题,是因为情感使然,整个伦理道德都和情感相关,它要将人们从苦难、痛苦中解放出来。这就是道德的全部意义。

现在的人工智能系统没有任何道德观念,因为它们不会痛苦也不会快乐,它们没有情感。通过这种方式,让我们再次思考,意识是什么?意识是一种体验痛苦的能力,但也是从痛苦中解脱出来的能力,这是道德伦理的核心问题。

而我们正在面临的问题是我们如何保持对人工智能的掌控,以确保它们做出符合伦理的决策。我们不能把伦理问题交给人工智能,再次强调,因为它们没有道德观念,它们没有情感。


四问:
未来10年,全球面临的主要挑战有哪些?


我现在在运营一家名为“智慧之船”的企业,它的主要使命是帮助全世界的人将对话的焦点集中在人类所面临的最重要的挑战上,因为很多时候人们关注点是错的。我们认为,最重要的挑战有三个。

第一个是生态挑战。整个生态系统正因气候变化、动植物灭绝而变得不稳定,而人类也是生态系统的一部分。如果生态系统崩溃,我们也会深受其害。人类有责任保护其他动物和地球,免遭灾难性的生态崩溃。这是一个非常重要的议题。

第二个是人工智能。人工智能可能会脱离人类的控制、危害人类,甚至奴役或毁灭人类,因为我们正在创造数百万个“代理”,它们可能比我们更聪明。你可以把它想象成某种外星物种的入侵,只不过这一物种不是来自外太空,而是来自我们地球。

我们对自己创造出的这种新的高智能外星物种,目前还具有控制能力,但它们很快就会脱离我们的控制。我们该如何防止它们脱离控制、危害人类?这是人类面临的第二大挑战。

第三个挑战是战争。面临生态崩溃和人工智能这两大挑战,全世界人类应该团结起来共同应对威胁,但事实却恰恰相反。在过去十多年里,世界各地的国际紧张局势日益加剧,战争和冲突越来越多。

一旦爆发真正的大规模战争,不需要人工智能或气候变化来毁灭我们,我们就可以自己毁灭自己。

每个国家都有自己特殊的问题,但作为人类,我们需要合作来应对这三大全球性挑战。


五问:
关于人工智能,当下最值得担忧的问题是什么?


从短期和长期来看,人工智能可能带来三种危险:

一是使用人工智能对其他人做可怕的事情;二是人工智能并非有意为之,但由于其奖励函数设计不当而造成伤害,它无意中伤害了人们;三是人工智能本身就变成了危险,并且有做坏事的欲望,就像科幻电影一样。

第三种是最不令人担忧的,前两个问题非常严重,而随着人工智能变得更加强大,可能会愈演愈烈。

最常见的是,如果恶意行为者使用人工智能做坏事怎么办?比如,恐怖分子利用人工智能制造新的大流行病。

因此,在公共演讲中,我更强调人工智能的第二个危害。不是因为它邪恶或想要接管世界,而是因为它是一种外来的智慧,非常难以控制,可能会产生许多我们没有预料到的不良后果。

我们已经有了一个社交媒体的例子,即,社交媒体平台由算法控制。公司给了算法一个特定的目标,即提高用户参与度、增加流量,让人们花更多时间在平台上。

这听起来像是个好目标,这对公司有好处,甚至对人们也有好处。但实际情况是,负责社交媒体的算法决定了你在TikTok上看到的下一个视频将是什么。

算法发现了一种破解人类思维的方法,即如果目标仅仅是吸引人们的注意力,最简单的方法就是按下大脑中的仇恨按钮、愤怒按钮或恐惧按钮。从进化的角度来看,这些事情会立即抓住人们的注意力,但这对心理健康和社会健康都是毁灭性的。

算法本身并不邪恶,它们没有试图伤害人们,但这带来的结果对人类社会非常不利,而且这种情况可能会更大规模地发生。

想想人类是从哪里获得生活中的目标?有时目标是从上至下的,比如有人给你一个目标。你在一家公司工作,CEO告诉你,这是你的目标,但大多数时候,这些目标是从下至上形成的。

人类可以被视为带有非常基础奖励机制的算法,即痛苦和快乐。我们在生活中经历的一切,最终都只是身体的感觉。如果是快乐的感觉,我们就想要更多;如果是不痛苦的感觉,我们就想要减少,希望这种感觉消失。

从这些微小的心理原子中,整个人类世界被构建起来。如果你思考,为什么人们会参与战争?人们做每件事的原因,归根结底,这一切都是关于痛苦和快乐。

如果我们能够在人工智能中设计一个类似于痛苦和快乐的奖励系统,那么其他一切都可以从中构建出来,人工智能甚至可能为了体验这种快乐而发动战争。

现在听起来很荒谬,为什么人工智能会为了体验这种奖励机制而发动战争?但这正是人类在做的事情。

归根结底,这些都是人类系统在追求快乐、避免痛苦并进行复杂的计算,认为如果我们要体验快乐、避免痛苦,就必须发动战争。


六问:

长期来看,您对人类和AI的未来乐观还是悲观?


我想有乐观的一面,也有悲观的一面。

乐观的一面是,我认为我们会越来越意识到对我们来说重要的不是智能,而是意识。到目前为止,我们是地球上最聪明的生物,所以我们为自己的智能感到自豪。

现在,人工智能正在变得比我们更聪明,这迫使我们重新思考人类的本质。我认为正确的结论是,人工智能会更聪明,但真正重要的是意识,因此,我们应该更多地投资于发展我们的意识。

我希望人们能以不同的方式更多地投资于发展意识,意识的提升有着巨大的发展空间,而让人工智能承担许多工作,世界会变得更好。

目前的一个大问题是,要自由地发展你的意识、关系和社群等,首先需要人的基本需求得到满足。现在,如果人工智能越来越多地取代工作,谁来提供人的基本需求?

在发达国家,政府可以对大型人工智能公司征税,并用这笔钱为每个人提供基本服务和收入。但如果放眼全球,你会发现问题所在。

假设美国或中国在人工智能竞赛中领先,即使许多公民失去工作,政府也有充足的余量资源来照顾他们。

但在印度尼西亚和尼日利亚这样的落后国家会发生什么?我不认为像特朗普这样的领导人会让美国政府从美国征税,给在尼日利亚失去工作的人民提供基本服务,这非常不现实。

所以,如果我们能够解决这个问题,我认为通过不断增加对人类意识的投资,我们可以创造一个更好、更美好的世界,即使失去了许多工作,但做到这点将会非常艰难。


七问:

要做到与AI共存,现代人需要培养哪些技能?


我想特别强调两项技能。

首先是灵活性,尤其是心理上的灵活性。纵观历史,预测未来从来都不是一件容易的事,也不可能做到。今天世界的变化比历史上任何时期都更剧烈,没有人真正知道20年后的世界会是什么样子,就业市场会是什么样子,人们需要什么样的技能。

如果你专注于一个非常狭窄的范围,比如学习计算机编程,也许20年后AI编程能力远超人类,那现在就没有必要学。

所以最保险的赌注是拥有广泛的技能,包括智力、社交、运动技能,在一生中不断平衡组合各项技能,培养一个灵活多变的头脑,这会贯穿我们的一生。

其次是信息节食。我们正日益被海量的信息淹没,包括人为制造的充斥着仇恨、贪婪、恐惧的垃圾信息,需要有能力分辨可靠和不可靠的信息,进行信息节食,给思想排毒。

进行信息节食,不同的人有不同的方式。就我个人而言,我每天花2个小时冥想,12月开始,我会进行60天的冥想。

在此期间,我不会摄入任何新的东西,没有电话,没有电脑,没有互联网,我也不阅读,我甚至不和别人说话,一切都很安静。所以整个过程就像60天的静修。

冥想的基本问题是:什么是真实的,什么是真实发生的,技巧之一就是不再听脑子里的故事,试着从不同的角度看现实。

这是一个审视自己内心深处的机会,让我们再一次处理存在于内心并控制我们的仇恨,贪婪和恐惧。


八问:
虚拟的世界里,我们如何重建与真实生活的连接?


我非常喜欢“连接到附近”的想法,离我们最近的地方就是自己的身体。人工智能没有身体,不会经历那些痛苦与快乐、爱与恨的情感。

在几千年的人类历史中,我们已经学会了如何用单词、故事、金钱、法律连接彼此。这也使得人类成为了地球上最成功的物种。

今天AI可以阅读所有书籍、字典、大语言模型,理解文章、金钱、法律的程度比我们更好,并且能够生成文本,比大多数人都更擅长沟通。

人类建立的用来连接数百万身体的系统,已经被人工智能接管了。如果人工智能控制了所有的行动,我们会遇到可能随时失控的大问题。所以我们需要以某种方式重新连接我们的身体、感知与情感。

最后我们回到有机生命和无机生命的问题。40亿年来,只有有机生命存在,有机生命通过白天黑夜、活动休息、四季轮转来按周期工作。作为无机生命,人工智能不在乎这些周期。

现在,随着人工智能变得越来越重要,它越来越多地管理和控制着世界上的大型网络,比如金融网络、社交媒体和新闻网络。

因此,人类适应人工智能步伐的压力越来越大,因为这个永不停歇、高速运转的系统将持续压迫人类,使我们始终处于活跃状态,不要睡觉,不要休假,面临全天候工作的压力。

最大的问题是谁会去适应谁。我们能否减缓人工智能系统的发展速度,使它们与有机生命的节律保持一致,亦或是它们会迫使我们尝试越来越快的生活节奏,一直保持兴奋和活跃状态,直到我们崩溃并死亡。

请记住我们仍然是有身体的动物,尝试投入更多的时间和精力,用身体去感知,去触摸真实的世界,去发展我们的思想。那么,我们还有能力掌控局面。

但如果我们不及时这样做,几年之内,人工智能将会控制我们,然后迫使我们按照它们的逻辑运行,而不是我们让它们按照我们的逻辑运行。


九问:
未来10年,如何重新理解“人类共同体”的概念?


身份认同与生物物种不同。

不管我属于智人,还是黑猩猩、大猩猩、猫或狗,这是一个客观定义,并不取决于我对我脑海中故事的信仰。

而身份认同是由故事塑造的,取决于我们心中的故事和信仰。这在某种程度上意味着所有身份都是虚构的,对于一个群体或一种身份没有客观的定义。

其实并没有单一的人类共同体,而是有一系列这样的群体。每个人都属于多个群体。比如我有一个家庭,我属于一个社区或一座城市,一个国家。此外,还有整个地球上的人类共同体,关心整个星球的命运,我也是其中一员。

对人类共同体关键的理解是我们依赖于许多其他人,而且不仅仅是人类,我们还依赖于动物、植物以及整个生态系统。有些人认为身份是完全独立的。独立意味着你不需要依赖其他任何人,而这只是一种幻想。

我们吃的很多食物都是世界另一端的人种的,我们使用的工具,拯救我们生命的药物往往是世界另一端的人发明和生产的。世界上没有什么是完全独立的,如果没有与大量我们从未见过的完全陌生的人合作的能力,我们就不可能有这样的文明。

当然,不仅仅是人,就像我们呼吸的空气,吃的食物,如果没有动物、植物、生态系统、太阳,我们就不可能存在。

那些幻想着“我必须完全独立”的人,应该想想他们每一刻是怎样呼吸的。在每一次呼吸中,我们从世界中获取一些东西,然后我们回馈一些东西,接着不断循环。

宇宙中没有什么是完全独立的。当你遇到这些争强好胜、冷酷无情的人,他们认为“我会变得异常强大,我不会再依赖任何人”,他们只是在四周制造破坏,最终,他们也毁灭了自己。

这是每个人都需要有的一个非常基本的认识。


十问:
从更广阔的视野来看,世界越来越好的关键是什么?


就人工智能而言,有些事情,我们个人可以做,但最终只能通过社会层面的共同努力完成。整个社会需要了解我们面临的问题,对新技术进行监管,以确保其适应人类的需求,不会脱离我们的控制。

第一件事就是要放慢脚步,真正了解问题所在。要知道,当人们面临危险情况时,往往会急于解决问题。因为问题悬而不决的状态让人感到不舒服。我们希望问题立即得到解决,但结果往往是我们误判了问题,选择了错误的解决方案。

当我们面对人工智能越来越大的压力时,实际上我们需要放慢脚步,在我们急于采取错误的解决方案之前先弄清楚真正的问题所在。我不知道当下明确的解决办法是什么,但我们急需让更多的人意识到这个问题,并参与讨论,一起探讨可行性解决方案。

因为目前的情况是,几乎所有关于人工智能的知识都集中在极少数人工智能开发者和企业家手中。很多时候,最先体会到技术全面影响的不是工程师,也不是大企业的管理者,而可能是生活在遥远村镇的普通人,他们受到人工智能的影响,困惑为什么生活会发生变化。

人工智能的工程师们并不真正了解这些普通人的生活是如何被新技术改变的。因此,我们首先需要与他们建立联系,开展更具包容性的辩论。

如果只给极少数开发技术的人赋予权力,让他们决定所有问题的解决方案,这将意味着,我们对当下问题的理解非常狭隘和肤浅。

世界变得越来越好的关键是要更好地了解人类。社会最终的目标不是生产人工智能,也不是生产其他东西,而是为了让人类过上美好、幸福的生活。为此,你真正需要了解的是,什么是人们生活中痛苦的根源,以及什么是人类的幸福之源。

我认为,将如此多的资金、精力和时间用于发展技术和人工智能固然重要,但我们也不应忽视对人类的了解和发展。如果我们在开发人工智能方面每投入一美元或一分钟,都能在了解和发展人类思维方面也投入一美元和一分钟,我想一切都会好起来。


尾 声


如果说几年前,关于人工智能的对话还只像是对某个遥远未来的一场哲学上的轻松猜测;那么站在2024年的末尾,关于人工智能对话的强度已经像是在急诊室里人命关天了。

有些对话者对历史有着美好的想象,进而让他们对人工智能充满热情。在他们看来,过去的每次信息革命都极大地造福了人类。

也有一些对话者虽然对人工智能革命的看法较为悲观,但仍然觉得人类有望蒙混过关,就像过去混过工业革命一般。

这两种观点显然都无法让人安心。

在《智人之上》中,尤瓦尔写道:“未来不是一个已经存在的东西,它只是我们当前行动的结果。”

人工智能可能成为人类的救世主,也可能成为人类灭亡的设计者,这完全取决于我们当下如何行动。

40亿年来,人类智慧并不是由什么绝对正确的天才或神祇所创,而是经过复杂的反复试错而产生。

放眼未来,人类要做到和AI共存,并不需要发明什么其他的奇迹技术,也不需要想出什么过去世代都想不到的天才主意。我们需要的只是认真投入一项困难但平凡无奇的工作:放下自满,不要绝望,并不断地进行自我修正。

参考资料:

《尤瓦尔·赫拉利对谈张静初:AI正在制造慢不下来的人,整个世界都在发狂》

《尤瓦尔·赫拉利对谈洪晃:我们无法与AI竞争,宝贵的是人类的意识和思维》

《尤瓦尔·赫拉利对话李开复:AI终将比我们更聪明,但它们不会有人性》

《尤瓦尔·赫拉利x项飙x严飞:AI时代要回到人本身,理解什么是意义》

中信出版社集团尤瓦尔·赫拉利专访,2024.11.1

来源:中信读书

相关推荐