摘要:值历史学家、哲学家尤瓦尔·赫拉利来华之际,中信出版集团联合北京大学党委宣传部、北京大学国际合作部,在北京大学校内共同举办了尤瓦尔·赫拉利教授的学术交流活动,结合他的“人类简史系列”作品,邀请北京大学哲学系教授程乐松对谈,北京大学艺术学院助理教授刘晨担任主持。
阿信 中信出版
身处人工智能时代,我们能够获得信息的方式更加多样化,却也沉溺在信息的洪流里。
当我们回看信息网络发展变化的时候,是什么造就了这一切?
我们在历史叙事中看到了被串联起来的资料时,不禁生出疑问,横亘在宏观历史与具体生活经验之间的鸿沟是否可以被填平?
当我们发现,生活可以被技术更好地梳理时,我们是否还会在意人与人之间的理解?这是否也是我们焦虑的根源?
在历史学家尤瓦尔·赫拉利看来,历史不仅仅是对过去的研究,也是对现在和未来的研究,试图去理解事物是如何变化的。
值历史学家、哲学家尤瓦尔·赫拉利来华之际,中信出版集团联合北京大学党委宣传部、北京大学国际合作部,在北京大学校内共同举办了尤瓦尔·赫拉利教授的学术交流活动,结合他的“人类简史系列”作品,邀请北京大学哲学系教授程乐松对谈,北京大学艺术学院助理教授刘晨担任主持。
以下为对话内容精编:
历史是人类的一种集体心理治疗吗?
刘晨:
我非常荣幸能作为主持人,与尤瓦尔·赫拉利教授与程乐松教授,这两位杰出学者同台交流,探讨赫拉利教授的系列作品,包括《人类简史》《未来简史》《今日简史》和他最新出版的作品《智人之上》。接下来邀请两位老师开启对话。
程乐松:
当下是屏幕时代,我们沉浸在这种短视频和那些不严肃的信息之中。然而你所创作的“人类简史系列”着墨于理解和反思人类文明与文化的基础。很多读者喜欢这种从历史出发,但指向未来的叙事方式。
我想与您探讨这种现象,以及您系列作品中蕴含的深刻内涵,尤其是新作《智人之上》——它在很大程度上引发了关于"文明"本质的哲学性思考。您的创作提醒我们:作为专业学者,应回到公共领域,共同应对人类面临的挑战与问题。
作为历史学家,你有如此多的读者,对人类文明给出了如此有力的结构性诠释,这是可以塑造读者核心观点的一个非常有力的工具。同样,这也意味着你肩负着非常重要的道德责任,因为你塑造了你的读者的思维。我们如何负责任地运用这种力量?你期望读者可以从作品中获得什么?
赫拉利:
在我所有的作品中,我都试图帮助人们了解自己,帮助人们更好地理解现实。这是一项非常微妙的工作,因为人们通常急于去评判现实,评判历史,评判过去和现在。当我们急于评判事物时,就没有时间去理解它们。因此,在我的写作中,我试图去书写历史,但不指出反派,不指出好人与坏人,而是去深刻理解变化过程。
“我有时会感觉,历史也许是人类的一种集体心理治疗。
我每周都去做心理治疗。人们可能会惊讶,为什么人们需要去做心理治疗?因为治疗的主体就是我自己,谁比我更了解自己呢?为什么我需要去找陌生人来了解我自己?这听起来很荒谬,但事实并非如此。
因为,我对自己的了解可能比其他人都多,但也有很多方面是我并不想了解的。比如在我生命中那些更加痛苦、黑暗的片段等。就像一个人处于一段关系中,会说自己是完美的,是另一个人引发了所有的问题。这就是我需要去心理治疗的原因,去接受专业的帮助,认识到自己内心深处真相,去承认那些痛苦的事情。
赫拉利教授与北大师生对话现场。照片来源:北京大学融媒体中心
对于整个文明或者对于整个人类来说,历史同样像是一种心理治疗。一个国家往往不愿意承认自己过去的黑暗片段或现在正在做的黑暗事情。整个文明也是如此。
我认为历史学家应负起责任,不要互相指责,而要单纯地帮人们更好地理解世界中的大问题及其根源,这是一项重大的责任。
程乐松:
我非常赞同你的观点,因为你刚刚指出了人类的核心价值。人类的核心价值不是提供任何准确的知识,不是让世界变得透明。其实,最重要的是,通过人性和反思,我们引导人们不要匆忙地做出任何判断,尝试过一种慢生活,尤其是在思想层面。鉴于人性的复杂性,不同叙事框架可能交替主导,或在认知层面出现偏颇与片面,这恰恰凸显了审慎思考的必要性。
程乐松教授。照片来源:北京大学融媒体中心
为什么会这样?因为我们理解的角度有限。你在你的作品中,很大程度上是在试图给人们提供一个非常谨慎的、精炼的警示,即敦促我们尊重,但绝不盲目地相信我们不完美的人性。
如果我们把目光转向所谓的科技发展,以及因为人工智能技术而正在发生的巨大变化,我们会发现,问题不仅仅在于技术本身。正如辛顿所指出的,最重要的是这项技术的滥用,而不是技术本身。这在很大程度上将我们引向了在政治哲学中一个非常重要的问题,我们称之为技术统治论。而那些致力于开发人工智能技术的人,实际上已经对人类建立起了一个系统的技术暴政。
你的书试图敦促我们反思人的缺陷,但人类的这种缺陷正是我们区别于机器的关键。因为我们有情感,有欲望,所以这在很大程度上促成了一个对未来既特别、又正确的态度,我称之为适度乐观,即你不应该过于乐观,但也绝不能把它说成是悲观的。
不信任人类,却幻想相信一个新物种
是不责任的表现
赫拉利:
我经常被问到这样一个问题:我对未来是悲观还是乐观?我总是说我两者都不是。悲观主义滋生绝望,但乐观也同样可以变得危险,因为它会滋生自满情绪。
我试图找到一条负责任的中间道路。这不是乐观主义或悲观主义,而是意识到我们面前可能有不同的未来。我们可以绘制一张不同未来的地图,有好有坏,没有什么是确定的。这需要有足够多的人来做出正确的决定,才能到达正确的目的地。
纵观当今世界,我对世界各地许多政界和商界领袖所表现出的缺乏责任感感到震惊。人类似乎正朝着一个非常危险的方向发展。而此时此刻,由于人工智能革命的到来,责任比以往任何时候都更加重要。我们正在创造的不仅仅是历史上最强大的技术,而是一个潜在的新物种——超级智能,它们可能很快就会夺走我们的控制权。我们只有几年时间来做对这件事。
当我周游世界并与人工智能革命的领导者交谈时,就像他们问我“你持乐观还是悲观态度?”一样,我以两个问题来反问他们。
第一个问题是,你们为何如此心急?为何不给人类留出必要的时间来适应和反思以更审慎和安全地发展这项技术?他们的回答惊人地相似。
他们(人工智能革命的领导者们)回答说:“我们知道有很大的风险。我们也希望可以循序渐进,但我们不能相信我们的人类竞争对手。如果我们放慢脚步,而其他公司或国家不慢下来,他们就会赢得这场人工智能竞赛并主宰这个世界,这个世界将会被最无情的人统治。我们不能允许这种情况发生,所以我们必须加快速度。”
然后,当我与他们的竞争对手交谈时,也会得到相同的答案。大家都声称不相信其他人。
尤瓦尔·赫拉利教授。照片来源:北京大学融媒体中心
于是我问了他们第二个问题,那你是否相信你们所开发出来的超级智能体?这些刚才还口口声声说不相信同类的人,突然转向说:“我们认为超级智能体是可以信赖的。”
这样的对话真的让人感到精神错乱。因为我们知道人与人之间相处会有各种麻烦,但我们对人类的心理和生理有较为全面的了解。在历史上,我们经历的不仅有暴力和战争,也有信任的建立。
人工智能作为一种前所未有的技术,在开发之初我们已经知道它可能具备撒谎、欺骗和操纵的能力。然而,我们无法预测当数以百万计的超级智能体被部署到金融系统、军事系统和文化领域时会发生什么。因此,那些对人类失去信任却幻想可以依赖一种陌生的超级智能体的人,其行为是极其危险且不负责任的。
程乐松:
当你是一名工程师时,你创造了某种技术,你自然会自信地说:“我可以控制它。”当我们面对人工智能时,它是一个黑匣子,我们不知道那里会发生什么。如果人工智能引擎中存在某种主观性,我们称之为“主观性”,它们是否会有自己欲望,是否会有想做某些事情的意愿,是否产生自己的价值体系,是否有自己的价值偏好?所有这些问题都超级危险。
我认为问题在于,当我们声称无法相信其他人的时候,这意味着我们了解何为人类,了解人性。但如今,我们仍在探索什么是AI,这一新物种的新定义。这实际上是把我们引向了关于硅基生命和碳基生命之间的区别。我们对碳基生命有着明确的定义,尽管有一些可观察到的现象,比如我们正在活着之类的。但碳基生命的一般定义是我们终有一天会死。这个定义构成了人性的基础。死亡的必然性,对群体的依赖性以及对不确定未来的焦虑,这些都导致我们对人类的理解不充分。而人与人之间的相互信任是人类历史上最昂贵的东西。
如果说,是智力让人类与动物区分开来,我们是一种拥有智力的物种,那么让我们与AI智能体区分开的,是因为我们有情感,我们存在缺陷,我们有局限性。
中国哲学告诉我们,最重要的事情是人必须认清真正的自我,有情感、有局限性的真实自我。我们不可能无所不知。当我们面对他人和未来时,应该非常谦虚。因此,这在很大程度上是中国古代的智慧。而且,这就是你所说的责任。责任不仅仅来自对于一种社会机制,还来自对于自己的认知以及人的本质是什么。
过于强调智力培养正在变得危险
赫拉利:
我认为,关于人类的一个非常重要的观点是,我们常常以智力优势来作为区分人与动物的核心标准。我们感觉自己比所有动物都更高级。我们为什么更加高级?我们在身体、体力上并无优势,但我们认为自己比其他动物更聪明。所以,在认识我们自己的过程中过于强调智力和聪明才智,这种认知正变得越来越危险。因为地球上即将出现比人类更聪明的智能体。所以,如果只强调智力,人类可要完蛋了。
我可以分享一些我的亲身经历,这段经历给了我一个惨痛的教训,让我明白智力不是我们生命中最重要的东西。
在我年少的时候,学校发现我很有天赋,就把我从家附近的学校选拔到特殊的天才学校。因为这是一所为天才学生创办的特殊学校,所以大家都把我们视为会走路的智能体。我们根据智商高低被评判,但问题也随之而来。
在老家学校的时候,我总能不费吹灰之力地在所有科目上做到最好,无论是数学、阅读、写作,还是别的一切。因此我有大把时间玩耍和做其他事情,同时我的地位还能轻而易举得到保证,稳坐全班最聪明孩子的交椅。我的身份定位是我是班上最聪明的孩子。可是突然间,我和其他30个天才儿童在一个班级里,他们都把自己定义为班里最聪明的孩子。
当30个同样聪明的10岁孩子组成一个班级,课堂就成为了一个角斗场。这样的日子持续了数年。天才班的逻辑是只关注开发孩子们的智力,没有人在意培养社交技能、发展情感技能,以及增强体质和训练身体技能。
虽然我现在能一笑置之,但那真是一段非常痛苦的经历。当我们离开学校时,我们的智力得到了长足发展,但社交技能却非常欠缺。
据我所知,我们班上的一些同学至今还没有摆脱那段时光带来的阴影。这段经历让我深刻意识到,我们不能仅凭智力技能来定义或者培养一个人,因为人生还有很多更重要的东西。人生的本质在于感受,而不仅是认知能力。
程乐松:
刚才你回忆了你儿时的学校,在童年时代你是班上最聪明的学生,但当你一旦进入这座校园后,就会发现自己只是平均水平。这个认知过程是一个非常艰难的心理转变过程,尤其是在第一学年第一学期。你必须接受你自己是个普通人的事实,接受你在大多数老师眼中平平无奇,你并不是那么聪明。你曾经用来炫耀的小聪明现在看来毫无意义。这就让我们得出了一个重要的论点,即人之所以为人,是因为我们有缺陷,因为我们拥有许多与智力无关的东西。
当我们说,我们试图控制某些有智力而且可以辅助我们的东西时,我们仍然基于一种重要的推理模式,基于工具推理。我们试图将其视为工具,而非一个主体。如果你把它视为工具,那么实际上你就会陷入现代性陷阱。现代性陷阱指的是不断追求效率,以更快速度处理事情。当你面对各种不同的竞争,这些竞争对手可能是其他人、其他公司、其他国家等等,所有这些都与竞争有关。
现在,我们又面临了一场新的竞争——与AI竞争。它是一个新型的、可疑的、可以提供支持的智能对手。它让我们陷入了恐慌。而这种担忧引发了我们对历史的反思。因为几千年来,人们的焦虑总是来源于同样的事情,那就是未来的不确定性,以及我们该如何负责任地采取行动来应对正在发生的变化。
对我来说,这不不仅仅关乎技术,也关乎我们对人类缺陷的深层次认知。我们应该全面了解我们的局限性,然后谨慎地迈向未来。正如今天讨论的主题,理解即解药。在采取任何行动之前,你首先必须进行深入反思。但现在我们过于贸然采取行动。我们过于草率地投入了一场新型的竞争。这在很大程度上就是我所说的现代性的后果。我们实际上面临的并不是所谓与AI竞争,而是在与我们自己竞争。
赫拉利:
也许我不会把所有责任都归咎于现代性,因为在古代也有类似的事情发生。我对道家思想知之甚少,所以我很乐意听你的讲述。但是至少在西方历史上,几千年前发生过类似的事情。你提到了人们的恐慌,人们害怕失去控制力,害怕一无所知。这种恐慌驱使人们探寻绝对可靠的东西。
对超级智能的幻想并非是最近或几十年前出现的。至少在西方,对超级智能的幻想可以追溯到几千年前。那时,人类渴望找到他们的超级智能体:救世主、弥赛亚、上帝。他无所不知,绝对正确,我们可以依赖他。因为人类无法依赖自己。这一幻想催生了首个源于幻想的人造物,现在这仍是世界上最重要的人造物之一,那就是圣书。进而,世界上出现了一批解读文本的专家。
而如今,一个有趣的变化正在发生,至少在上述宗教中是如此,那就是文本开口说话了。AI已经掌握了语言的用法。
这是我作为历史学家对这一切的看法:不仅仅是现代性,整个人类的历史都在为AI变革提供了养分。这场变革可能会带来意想不到的后果。
程乐松:
在道家思想中,这种情况截然相反。我不是要把所有的责任都归咎于现代性。显而易见地,现代性是西方传统的产物。但中国的情况却完全不同。因为道教思想是一套复杂的思维体系。
让我从一个非常简单的句子说起,那就是《道德经》开头这句“道可道,非常道”。这句话意思是说你能言说的事情并不是一成不变的。在我看来,这意味着权威有一个非常有趣的定义。你刚才提到的,权威是绝对正确的。作为深受道家思想影响的中国人来说,我们实际上有前提假设。
首先,作为普通人,我们的理性有明显的局限性,我们不会说能够控制或掌握宇宙的终极真理,掌握一切。这是因为我们是人类。
是否存在我们可以依赖的、看起来永远正确的权威呢?是的,我们对过去的事情有某种记忆,比如圣贤。在由圣贤统治的黄金时代,圣贤知道所谓宇宙的内部精确的运行机制,那就是事物在变化。在道家思想看来,万物都在变化之中,万物都是流动的。没有任何一种制度和规则可以应用于人类历史的所有时期。因此,你必须依靠最初的文本。
但你不可完全依赖于它。你可以阅读并学习文本,然后学以致用,但并不代表你所学到的制度和规则是永远正确的。
所以最重要的是,对于中国人,尤其是对于道教徒来说,必须以开放的心态对待变化,对待宇宙的终极规则。我们可以这样说宇宙是永恒的,思辨是真实的。现代性是西方传统的保护者,存在着不足之处,那是它认为存在有绝对的制度和规则,存在绝对的广泛适用的机制,可以支配我们看到的一切。
中国传统思想认为,世界上并不存在广泛适用的正确的绝对真理。因为宇宙万物都在变化之中。虽然宇宙是一个整体,但并不存在可以获知或掌握的终极和广泛适用的规则。这就是为什么我会说中国人对变化保持谦卑之心。
我们一贯将学习和实践相结合,学习并将所学付诸于实践,在实践中得到反思,再回到文本,然后根据实践和从文本中学到的东西采取行动。因此,这在很大程度上是一种中国的风格。这就是为什么我称中国风格与西方的截然不同。这也是为什么我们可以从东方来源中汲取东方思想,找到应对现代性问题的方法。这就是为什么我们应该拓展我们的智力,互学互鉴,相互理解。
理论与实践的差距是否需要填平?
赫拉利:
佛教中也有很多论点和你提到的道家思想相似,比如我们必须认识到人类的局限性。世界上并没有可以掌握的绝对真理。万法皆空。你必须在实践中领悟,但不能执着于文本。事实上,人们只是在不断地背诵文本,即使在寺庙中,僧人们的修行仍是记忆本文,宗教权威成为解读文本的权威专家。文本本身写着不要依赖文本,专家也会这么告诉你。
我想起了一个著名的佛典故事,讲的是一名僧人在林中冥想,他的附近栖息着一只鹦鹉,僧人想保护鹦鹉的安全。
所以他对鹦鹉说:“你要小心啊。在这片林子里的某个地方,有一个猎人在来回地巡视,他会在地上撒下谷粒。你看到谷物,就会被吸引飞到地上,只要你啄食这些谷粒,就会落入猎人设下的诱捕网,他就会捉住你。”
“鹦鹉要小心,猎人要来了。”僧人不断重复这句警告,因此鹦鹉学会了这句警告,于是它站在枝头,不断地重复这句话。
直到有一天,猎人来了,在地上撒下谷粒,鹦鹉被谷粒吸引,飞到地上去啄食谷粒。此时猎人打开了陷阱,鹦鹉被捉住了。在整个过程中,甚至当猎人抓着鹦鹉,准备杀死它时,鹦鹉一直在说:“鹦鹉小心啊,猎人要来了。”
程乐松:
你刚刚提到了一个关键的问题,即理论与实践之间的差距。这个问题与人类的基本需求有关。我认为,人类的基本需求是需要理解外部世界,理解其秩序。这种理解能够带领我们建立起智力上的认知。但在现实生活中,人们不得不向眼前紧迫的需求妥协。这种妥协成为了我们日常生活的一部分。所以,我们不能说,因为理论与实践之间存在差距,从理论上去理解整个世界就是无用的。但我们对意义的追求构成了秩序的基础。我们必须知道自己在做什么。
你刚才还讲到,我们的行为必须要有意图。在我看来,我们对于人生的意义也有系统的理解。这种意义实际上是建立在秩序的基础以及对秩序的承认之上的。有了秩序才有我们所谓的知识。根据这一逻辑,我得出结论,即针对理论与所谓实践之间的差距,我们更应重视反思的能力与理论建设的能力。因为我们要在两者之间取得平衡,我们必须对理论进行反思,这样才能避免被误导而做出错误的行为。
人类是一种复杂的存在,我们不能说只存在一个极端。正如我提到的中国哲学家一样,最重要的是我们需要在极端之间取得平衡,而不是说只要存在差距,我们就必须将它填平。
赫拉利:
但在历史的当下,我们究竟能做什么?几千年来,哲学家们进行了大量像我们这样的讨论,这些内容非常重要,但也并非绝对。因为历史进程还在不断演进。人类建立了不同的秩序,之后经历秩序的崩塌,人类再次建立起新的秩序,新的秩序维持一段时间后又再次崩塌。如此循环往复持续了数千年。而我担心的是,我们即将走到了这条路的终点。我们经过了数千年的哲学和历史积淀下来的智慧,需要立即付诸实践,否则就来不及了。
我们不知道还有多少年,专家们所说的通用人工智能就要出现了。它不是你们智能手机上的 DeepSeek 或 ChatGPT 这种AI程序,而是一种全方位超越人类的智能体。它不是专攻某一领域,而是全知全能。它一旦成为现实,我们就会失去掌控权。
比方说,我们正在进行这场对话时,天文学家告诉我们,他们观察到了一支来自其他太阳系的外星舰队正在驶来。根据天文学家的计算,这些外星人将在5到15年内登陆地球。我们对他们一无所知。也许他们会帮助我们攻克癌症,化解气候危机,也许不会。但我们只有五到十五年的时间来思考对策。此刻,我们人类数千年来积淀的所有智慧传统教会了我们什么?我认为这个时刻不同于历史上任何时刻,虽然历史是变化的过程,但这一次的变革也许将把我们排斥在外。也许这将是人类文明的终点站。
程乐松:
人类的优势正是我们存在的缺陷,因为我们并不完美。我们可以构想完美的事物,但我不认为我们会被人类创造文明所取代,不会被某种超级智能体所取代,因为我们拥有情感。
我实在无法想象,硅基生命如何有想法,拥有欲望和意图想要消灭我们,或者对人类进行统治。因为我们之所以产生欲望,是因为我们强烈地感知到了自己的不足,感知到了我们的不完美。因此,我可能比你更乐观。
赫拉利:
我不知道AI或AGI是否会产生意识甚至是情感,这也许是我们的终极之问。我只是觉得,实现一个目标并不一定需要情感,没有情感也可以独立行动。当你给AI一个目标,或者AI自行产生一个目标,他们就会做事来达到目标,而不需要任何情感或欲望。如果你有一辆自动驾驶汽车,你可以给这辆车一个目标,让它以最快的速度到达火车站,而这辆汽车可能在路上撞向行人。因为设定了“以最快速度到达目的地”的目标,却没有告诉它“途中不要撞死行人”。
类似的例子有很多,最著名的例子就是社交媒体上发生的事情。社交媒体公司给很早期的AI下达指令是要求它们提高用户参与度,增加用户粘性。而算法却开始在网上传播仇恨和恐慌,进而引发了社会的动荡。因为算法发现,提高参与度的最简单方法就是散播恐慌、仇恨和贪婪。它们并没有任何欲望,没有任何情感,但它们可以有一个目标,并在实现目标的道路上不择手段。这对于我们来说是危险的。
尤瓦尔·赫拉利“人类简史系列”白金纪念版,包含《人类简史》《未来简史》《今日简史》《智人之上》四本书。
我们拥有情感和感觉,这意味着我们会遭受很多痛苦。意识的终极定义是什么?我认为意识的最终定义是感知痛苦并从苦难中解脱的能力,但这并不是什么护身符。奶牛能感知痛苦,而我们并没有仁慈地对待它们,其他动物也可以感知痛苦。众所周知,我们并不一定就是邪恶的,但许多动物在我们无意识的行为中被毁灭了。所以超级智能体可能会拥有各种目标,也并无恶意,它们甚至都没有任何情感。它们只是在奔向目标的过程中从我们身上碾过。
我还想说,这次的对谈是我最近参加过的最有启发性的讨论之一。我之所以要进行这样的讨论,写《智人之上》,是因为我认为人类需要做出也许是人类史上最重要的一次抉择。
目前,几乎很少数国家的很少数人能够理解正在发生的事情,参与进这样的讨论。大多数人只是听说过AI,但对AI革命的认知远远不足,不知道将面临的危险,也觉得自己没能力参与讨论。我无法告诉大家有哪些解决方案或应采取哪些政策。我的认知也非常有限。
我的使命是让更多国家和更多人对AI革命有一个基本了解,了解它会带来怎样的风险,从而让更多国家和更多人积极地参与到讨论中来。当我们听到更多意见,受到更多关注,拥有更丰富的世界观,我们就能做出更好的抉择。
目前,真正窥见全貌并手握决策权的人,并不是能代表普罗大众的人。他们大多是大型人工智能公司的领导者,这对人类来说非常危险。这就是我的初衷。我希望大家能受到激励,并积极地参与到讨论中来。因为有关AI的讨论关系着你们的未来,关系着所有人的未来。
来源:人工智能学家