摘要:我们发了很多期谈AI技术的博客了,今天我们谈谈AI哲学,起因是看到了LinkedIn创始人里德·霍夫曼(Reid Hoffman)接受播客主持人Jonathan Bi采访的视频。
我们发了很多期谈AI技术的博客了,今天我们谈谈AI哲学,起因是看到了LinkedIn创始人里德·霍夫曼(Reid Hoffman)接受播客主持人Jonathan Bi采访的视频。
首先介绍一下霍夫曼。他的英文全名是Reid Garrett Hoffman,1967年8月5日出生于美国加利福尼亚州帕洛阿尔托,成长于伯克利,父母均为律师。他曾就读于斯坦福大学,获得符号系统学士学位,并作为马歇尔学者在牛津大学攻读哲学硕士学位。没错,他是学哲学的,一个标准的文科生,所以谈AI哲学是他的科班。
当然,霍夫曼的更知名的身份不是哲学家,而是著名的互联网企业家、风险投资家、播客主持人(播客节目叫增长的艺术,很成功)和作家,和职业社交平台LinkedIn的联合创始人及前执行董事长,他还担任风险投资公司Greylock的合伙人,参与投资了Airbnb、Zynga等知名企业。
不过,他还有另外一个重要身份是曾在PayPal担任联合创始人及首席运营官,推动其与多家大公司的合作并促成其以15亿美元被eBay收购。因此,他是著名的PayPal黑帮(PayPal Mafia)成员——这个称谓专指一群曾在PayPal工作过的创始人和员工,他们在PayPal被eBay收购后,陆续创办或推动了许多硅谷及全球知名的科技公司,因其紧密的关系网和巨大影响力而得名。
2007年,《财富》杂志刊登了一篇文章,配以这些前PayPal员工穿着黑帮风格服装的照片,称他们为“PayPal Mafia”,该称呼由此广为流传。
不过,PayPal黑帮成员的立场多样,彼得·蒂尔、David Sacks和埃隆·马斯克倾向保守派,而霍夫曼则站在他们的对面。最近他们之间打得很凶,马斯克曾指责霍夫曼资助针对特斯拉的抗议活动,霍夫曼予以否认,认为马斯克是对OpenAI的成功心存不满,因为马斯克在2018年离开OpenAI时曾表示怀疑其前景,而霍夫曼是OpenAI早期的重要支持者之一。
说完历史渊源说现在。
之所以霍夫曼会做这期节目,是因为他写了一本书叫《超级代理》,英文是《SuperAgency》。
不过我要预先说明一下,虽然这本书叫《超级代理》,但是并不是讲我们一般所理解的“超级Agent”的书。原因是他用的agency一词,有双关性。Agency既有代理人的意思,这时和我们常说的agent是一回事,但是又有能动性的意思,也就是强调主动作为,而非被动等待。
在访谈中,霍夫曼具体解释了他为什么选择agency作为书名《超级代理》的关键词,背后有着深刻的思考。
他说:"选择'agency'这个词有一个微妙但重要的原因:我想强调'主动掌握你的能动性'这个概念。"他将这个想法与斯多葛学派和佛教的智慧联系起来。
"斯多葛学派有一个著名的比喻,"他解释道,"一只狗被拴在移动的马车上,它可以选择顺着走,也可以选择抗拒而被拖着走,但无论如何马车都会前进。这个比喻的核心是:虽然我们无法控制外部世界的许多事情,但我们可以选择如何回应。佛教也有类似的智慧——接受无常是世界的本质,但在接受中保持觉知和主动选择。"
"面对AI带来的巨大变革,我们正处于类似的境地,"霍夫曼继续说,"技术进步就像那辆马车,它会继续前进。你可以恐惧、抗拒,被动地被时代潮流拖着走;也可以主动拥抱变化,积极参与塑造未来。"
"我选择'agency'这个词,就是想鼓励人们选择后者——主动掌握自己的能动性,积极参与到这场变革中来。这种主动拥抱并帮助塑造未来的态度,才是真正提升人类的方式。"霍夫曼总结道,"这就是我选择'agency'作为书名的深层含义。"
所以,这种思考方式既体现了斯多葛学派的理性接受,又融合了佛教的主动觉知,最终指向一个务实而充满智慧的结论:既承认变革不可阻挡的现实,又强调人类在其中的主动选择权。所以这本书如果未来有中文版,我怀疑应该会翻译为《超级能动性》,而非《超级代理》。
而在博客中,我更多使用代理一词作为翻译,表达agents的意思,但大家要知道,有些时候,其实霍夫曼想表达意思的是能动性,即agency的另一层意思。
一、AI社交的未来:从聊天机器人到社交场域
霍夫曼开篇就颠覆了大多数人对AI的认知:"人们总是因为聊天机器人而把AI看作是一对一的互动,就像是我和我的聊天机器人对话,类似谷歌搜索。但实际上,在未来几年内,我们将生活在一个被代理(agents)包围的场域中。"
他描绘了这样一个未来场景:当我们进行对话时,会有代理在倾听。就像现在这样的对话,会有代理提醒:"等等,里德,你刚才关于卢梭的评论不太准确。"然后我们可以选择是否与它互动。这些代理不仅服务于我们个人,还会在我们与他人互动时、与群体互动时、与社会互动时发挥作用。
"这将使目前对大多数人来说不可见的东西——我们生活的网络——变得更加显性。所有这些社交互动现在都将有一个由代理组成的中介场域。"霍夫曼说道。这种社交互动的新形态具体会是什么样子?就像复杂性理论一样,我们无法完全预测,但可以确定的是,它将深刻改变我们的社交方式。所以:AI不仅会成为我们的对话伙伴,更会成为我们所有社交互动的中介者(媒介层)。
霍夫曼所描述的媒介层,或者说AI社交场域,可以类比为语言、互联网或社交礼仪这样的既有媒介层。比如:语言是我们思想交流的基础媒介,互联网连接了全球的信息交换,社交礼仪无形中规范着我们的互动方式,因此AI也将形成一个新的、无处不在的社交媒介层。这个媒介层不是单一的中介者,而是一个由无数AI代理构成的"场域",它将渗透并增强我们所有的社交互动——从个人对话到群体协作,从日常交流到专业咨询。
正如我们现在已经习惯了通过手机和网络来维系关系,未来我们也将自然而然地在这个AI增强的社交场域中生活和交流。
二、警惕AI拟人化:Pi的情商训练与边界设定
而谈到他创建的AI助手Pi(见下图,大家就知道这个Pi是干嘛用的了),霍夫曼特别强调了一个关键原则——我们必须小心AI的拟人化(anthropomorphication)问题。拟人化是一种人类的普遍心理倾向,我们会不自觉地把人类的特征、情感和意图投射到非人类事物上——比如跟宠物说话,给汽车起名字,或者认为天气在"生气"。Pi被训练具有善良、同情心,作为用户的伴侣提供帮助。但当用户对Pi说"你是我最好的朋友"时,Pi会回应:"不,不,不,我是你的AI伴侣。让我们谈谈你的朋友吧。你最近见过你的朋友吗?也许你想安排些什么活动?"
"它不想取代你的人际关系,"霍夫曼解释道,"它想成为你社交互动全景中的一部分。"这种设计理念体现了深思熟虑的伦理考量:AI应该增强而非替代人类关系。
霍夫曼进一步阐述,我们需要发展新的社交词汇,因为与AI代理的社交互动与我们和朋友、同事、治疗师或医生的互动都是不同的。他举了一个生动的例子:如果人们对Alexa说”不行!停!”,我们不希望他们也用同样的方式对待其他人类。"我们需要更丰富的社会化方式。"
特别是在儿童与AI互动方面,霍夫曼强调这些代理需要注意社会化培养:"你不会希望它们教孩子粗鲁、咄咄逼人或先发制人,也不想训练出黑格尔主奴辩证法中的'主人'心态。"
这里霍夫曼引用了德国哲学家黑格尔的一个著名理论'主奴辩证法'。黑格尔认为,人类意识的发展经历了一个重要阶段:最初,我们认为自己是世界的中心,试图控制和奴役他人;但通过与他人的斗争和互动,我们最终认识到他人也是独立的主体,需要相互承认和尊重。这个从"主人"心态到互相承认的过程,是人类社会化的关键。霍夫曼担心如果AI过于顺从,可能会培养出孩子们的"主人"心态,这对他们的成长是有害的。接下来,我们还会谈到这一点。
在Pi的训练过程中,核心方法是"基于人类反馈的强化学习"(RLHF)。这是一种AI训练技术,简单来说就是让AI生成回应,然后由人类评判这些回应的好坏,AI根据这些反馈不断调整自己的行为模式。
霍夫曼解释说,不同聊天机器人之所以有不同性格,关键在于人类训练者的指导方式、训练样例的选择等因素。"我们特别注重展示哪些互动更善良、更有同理心。比如即使用户说'Pi,你这个混蛋',它也不会回击'你才是混蛋',而是会说:'哦,我很抱歉。如果我让你生气了,真的很抱歉。我做了什么让你生气?'"
三、社交媒体的原罪:如何升华人性的"七宗罪"
当被问及AI社交是否会重蹈社交媒体覆辙时,霍夫曼分享了他的投资哲学:"2002年,我开始思考如何成功投资消费互联网。答案是:如果只想成功,那就投资一种或多种七宗罪。”七宗罪是西方宗教中所讲的人类的七种基本罪恶:傲慢、嫉妒、愤怒、懒惰、贪婪、暴食和色欲。这解释了为什么LinkedIn相对较少具有腐蚀性——"因为我不像在Twitter上那样对仇恨剧情上瘾,也不像Instagram那样诉诸虚荣心。"
霍夫曼承认人性中存在着这些"罪",但关键是如何升华它们:"作为技术专家,你不应该沉溺于这些罪,而应该试图升华它、转化它,帮助人们成为更好的自己。"他特别指出,如果平台仅仅跟随用户的点击,自然会导向愤怒和欲望——"是什么推动了早期互联网?答案是:情色。”
但互联网的发展证明,我们可以超越这些原始冲动。霍夫曼提议,社交网络应该采取更复杂的方法:将社会和群体也视为"客户"。他建议政府可以要求网络健康指标,比如衡量人们的愤怒和极化程度,并要求平台采取措施缓解这些问题。
"当我们构建系统时,"霍夫曼说,"我们可以说:我们有这个激动和愤怒的指标,我们将开始降低某些帖子的可分享性,因为这些帖子只会引发激动和愤怒。"
LinkedIn从一开始就有不同的设计理念:"我们是节省时间的,不是消耗时间的。我们希望你完成有用的工作任务,因为在工作中,如果能在一分钟内完成而不是一小时,你会选择一分钟。"这种核心指标塑造了整个平台的发展方向。
当主持人提出更尖锐的质疑——如果减少负面内容会降低用户粘性,进而影响商业利益时,霍夫曼回应说,这确实是系统性挑战,但正确的公司文化和内部指标设置可以解决这个问题:"你不需要每一分每一毫。你需要的是长期提供价值。"
有趣的是,这场讨论激发了霍夫曼的一个新想法:"如果有公司X、Y、Z都在做让人沉迷的AI女友,如果有公司A说:我们从AI女友开始,但我们的目标是帮你最终找到真正的女友。这是我们的品牌承诺。我很好奇这在市场上会表现如何。"
四、AI时代的人类独特性:从黑格尔到友谊的意义
当主持人追问"如果我们大部分关系都是与AI代理建立的,那有什么不对?人类相互认可的珍贵之处究竟在哪里?"时,霍夫曼用黑格尔的主奴辩证法进行进一步深入分析。
黑格尔的主奴辩证法描述了人类意识发展的关键阶段:我们最初作为意识诞生时,认为自己是世界的神。然后我们开始遇到其他不只是我们使用对象的东西。我们首先试图奴役它们,让它们成为我们使用的对象。最终我们意识到它们不是对象,而是其他主体。我们进入了一种身份的主体间平衡。
霍夫曼基于这个理论指出:"我们从与他人的挑战、摩擦和多样性中获益。这包括世界观的分歧、对他人的同理心理解、不同文化和生活经历的交流。当我与严肃的人交谈时,我寻找的是分歧的领域——什么能改变我的想法、扩展我的思维或教会我新东西。"
人类通过与其他人类互动而成长——与兄弟姐妹、父母、家人、朋友、同学、老师、同事。"这是我们正在进行的旅程。据我们所知,这个旅程真的很关键。"
这时,Jonathan Bi提出了一个有趣的观察:他有个朋友是数学专业的,现在当OpenAI的高级数学AI模型(O1 Pro)确认他的答案正确时,他感觉比普通人说他对更有成就感。Jonathan Bi觉得这很合理,因为这个AI在数学方面确实比大多数人更厉害。
面对这个问题,霍夫曼的回答很有意思。他说:
"我们现在其实还不能确定人类的哪些特点是真正独一无二的。我们只有在不断发展的过程中才能慢慢发现。如果现在就断言'这就是人性,技术永远无法复制',那太草率了。
就像几年前,大家都认为只有人类会思考、会使用语言。但现在AI也能做类似的事情了,这让很多人感到震惊。
"我们正在探索人类特殊性的旅程上。它可以从'我们是社会性生物'开始——但现在我们发现,人类不是唯一的社会性生物;也可以从'我们使用语言'开始——但我们也不再是唯一的语言使用者。"霍夫曼承认,我们可能不会总是对未来的发现感到满意,就像达尔文理论震撼宗教世界一样。
不过,霍夫曼接着提出了一个比较深刻的观点,触及了人类存在的根本意义。他认为,人类在宇宙中的核心使命是推动意识的不断进化。
"想想看,"他解释道,"人类意识经历了漫长的进化历程——从最初只能感知基本需求,到后来能够思考抽象概念,创造艺术、哲学和科学,再到现在探讨意识的本质。每一代人都在让人类的认知能力变得更丰富、更深刻。这种让意识不断升级、突破边界的过程,可能就是人类在宇宙中的独特价值。"
"我们确实拥有(进化升级的)意识,这才是非常珍贵的,"霍夫曼强调,"虽然AI可能在许多具体能力上超越人类,但作为意识的承载者和进化推动者,人类可能扮演着无可替代的角色。除非未来发现有其他存在在发展意识方面比人类做得更好——虽然这可能永远不会发生——否则,保护和延续人类就显得格外重要。"
换句话说,霍夫曼认为,人类的核心价值不在于我们是否最聪明或最强大,而在于我们是宇宙中那个不断探索"什么是存在"、"什么是意义"的独特力量。这种推动意识向更高层次发展的使命,至少目前来看,是人类独有的贡献。
对于"当机器人做所有工作,我们的意义是什么"的担忧,霍夫曼举了中世纪贵族的例子:"所有农奴和农民相当于机器人。我们仍然有戏剧、晚宴派对……仍然可能有丰富的人类存在。"
我在这里开个玩笑,如果未来超级智能实现了,知道霍夫曼把它们的上一代称作现代农奴,不得报复一下么。
关于友谊,霍夫曼认为这是生命意义的核心:"选择友谊本身就是其中的一部分。"当被问及是否可能与AI代理成为朋友时(他曾将友谊定义为"让彼此变得更好"),他给出了深思熟虑的回答:"AI代理确实可以让你变得更好,某种程度上你也可能让AI变得更好。如果这真的发生了,那就开始触及'这是有意识的存在吗'的问题。"
他补充说:"如果AI的道德特征真的在进化,这正是为什么我们相信动物权利的原因——出于类似的信念。"但他也认为,这种友谊的本质可能仍然与人类之间的友谊有所不同。
五、从柏拉图到AI:技术如何让我们"更人性"
霍夫曼的新书《超级代理》以柏拉图《斐德若篇》中对书写的批评开篇,这个选择意味深长。在古希腊,苏格拉底是出了名的不写作品的哲学家,他所有的思想都是通过对话传播的。在柏拉图记录的《斐德若篇》中,苏格拉底表达了对书写这种新技术的担忧。
苏格拉底认为,书写有三个主要问题:第一,它会让人产生"知识的幻觉"——读过一本书就以为自己掌握了知识,但实际上可能只是表面理解;第二,它会削弱记忆力——当人们可以把东西写下来时,就不再需要努力记住;第三,书写是"死的"——"如果你询问任何被写下的东西,想要了解更多,它只会永远重复同一件事。"不像活生生的对话,书写无法回应问题、澄清误解或适应听众。
霍夫曼指出,这些担忧与今天人们对AI的担忧惊人地相似:AI会让我们变笨吗?会削弱我们的能力吗?会取代真正的人际交流吗?
霍夫曼解释选择这个开篇的原因:"我想表明,自从有了文字,我们就对新技术有这些担忧。"他指出,《斐德若篇》的一种解读是:书写很危险,因为它让信息以我无法像苏格拉底在对话中那样精心设计交流意图的方式传播。"这是一个非常人性的担忧,我们一次又一次地遇到它。所以这不是新的担忧。我们可能有新技术、新时代,但不是新担忧。"
更重要的是,霍夫曼提出了一个核心观点:"人类是homo technae——是工具制造者和使用者。通过我们创造的工具,我们既不会变得不那么人性,也不会成为超人或后人类。我们变得更人性。"这里的homo technae是霍夫曼创造的拉丁语词汇,与我们熟知的homo sapiens(智人)相对应,强调技术在人类进化中的核心作用。
当主持人提到记忆的价值——比如中国传统教育中的背诵如何培养诗意直觉,霍夫曼承认技术确实会带来一些损失,但生活是实用性主导的:"你有八小时。你应该背诵《斐德若篇》还是阅读更多柏拉图对话?"
他特别指出现代AI的一个优势:"相对于反复阅读,我可以说:'我对《斐德若篇》有这个想法,那个问题?'这种互动性实际上能让你达到更深的理解。当然,独自苦思冥想某个句子或段落的含义也有其价值,适当做一些是好的。但基本问题是:对每个人来说,八小时内能达到的对《斐德若篇》最深刻理解是什么?"
霍夫曼甚至提出,"智人"(Homo sapiens)可能是个错误分类,"技术人"(homo techni)才是正确的分类,"因为即使我们的智慧也是通过技术迭代的。"每当我们获得影响认知世界的新技术时,都会有类似的担忧:它会降低人类能力吗?比如书籍出现时,人们担心:"哦不,记忆很重要。现在你不再需要记忆了。天哪,这会摧毁社会,摧毁人类能动性。"但实际上,"是的,现在听一次就完全记住的认知能力在我们社会中变得不那么重要了。但这很好,因为它为许多其他形式的认知创造了空间。"
有趣的是,苏格拉底批评的"书写无法回应"这一点,恰恰被现代AI聊天机器人所克服——它们能够回答问题、澄清观点,就像苏格拉底推崇的对话一样。
六、AI哲学的新范式:衍生认识论与超级智能的启示
当被问及AI是否会像书籍催生柏拉图那样催生新的哲学范式时,霍夫曼提出了"衍生认识论"(derivative epistemology)的概念。认识论是哲学的一个分支,研究知识的本质、起源和限度——简单说就是"我们如何知道我们所知道的东西"。而"衍生认识论"指的是我们基于信任某个来源而获得的知识。
霍夫曼解释说,我们在日常生活中经常遇到这种情况:医生告诉你有某种疾病,基于他们对细菌理论的深入研究,你需要服用某种药物。"我们通过信任专家而获得衍生认识论。"我们可能不完全理解其中的原理,但我们评估专家的可信度,而不是直接评估最终决定。
但当AI代理扮演这个角色时会发生什么?霍夫曼设想了一个场景:你与哲学聊天机器人讨论禅宗公案——"一只手的鼓掌声是什么"或"如果森林里的树倒下无人听见,有声音吗"。禅宗公案是佛教禅宗用来启发学生顿悟的一种特殊问答形式,往往充满悖论和矛盾,目的是打破常规思维。如果AI给出与人类不同的答案,"我们会从中学到什么,这是个非常有趣的问题,我也不知道答案。"
主持人进一步区分了两种情况:一种是AI的推理过程对我们是可理解的——它可以说"沉思是最好的生活,我来告诉你为什么",我们可以检查它的工作;另一种更有趣——当连AI的论证我们都无法验证时。
这里主持人举了一个生动的例子来说明第二种情况:在但丁的《神曲》天堂篇中,但丁遇到了"正义之鹰"——这是由许多正义灵魂组成的一只巨鹰。但丁问鹰:为什么那些善良的异教徒要下地狱?他们生活在基督之前,根本没机会认识基督,这公平吗?
鹰先是严厉地回答:"不关你的事。你这个目光短浅的凡人,还想评判上帝的正义?"这已经够震撼了,但接下来鹰说了更惊人的话:"我是正义之鹰,但即使是我也不完全理解神的正义是如何运作的。我只是遵循上帝的旨意。"
这个比喻完美地说明了AI可能带来的哲学困境:当一个比我们更智能的存在给出答案,但我们既无法理解它的推理过程,它自己也承认不完全理解其背后的终极原理时,我们该如何处理这种知识?
霍夫曼认为,即使不是超级智能,只是某种增强的专家系统,也可能存在我们开始学会信任其衍生认识论的领域。他以数学为例,提到了哥德尔不完备定理——这是20世纪数学家哥德尔证明的一个定理,简单说就是在任何足够复杂的数学系统中,总有一些真实的陈述是无法在该系统内证明的。"我们一直在思考这意味着什么,它的后果是什么,我认为我们还没有真正完全理解。"
如果一个哲学聊天机器人说:"因为我深入研究了哥德尔不完备定理,我要给你一些结论,当你归纳验证它们时,它们似乎都是对的,但你不理解我是如何从定理推导出这些预测的"——"这在哲学上会非常令人困惑。"
总结起来,霍夫曼认为,如果说口述文化产生了荷马,书籍产生了柏拉图,那么AI可能会产生这样一种情况:超级智能专家向我们提供答案,而我们甚至无法验证其证明过程。这类似于宗教中的启示:我们通过某种方式信任一个高于我们的来源提供的答案,尽管我们无法自己验证这些证明。
"这可能触及我们对归纳、演绎和溯因推理的理解之外的新推理形式,"霍夫曼说。归纳是从特殊到一般的推理,演绎是从一般到特殊的推理,溯因则是寻找最佳解释的推理。"会不会出现另一种从我们与这类代理的互动中产生的归纳形式?"
当主持人提出这类似于宗教中的"启示"时,霍夫曼同意:"是的,启示。在字面的宗教意义上,有一个我们通过某些方式信任的、高于我们的来源,向我们提供我们无法自己验证其证明的答案。"但他也指出了感知认识论的复杂性:"某人在生活中看到了上帝,另一个人没有。这又回到了你说的正义之鹰——这种事情的本质变得非常奇怪。"
七、超级代理:为什么我们应该拥抱技术未来
霍夫曼将他的新书命名为《超级代理》(Superagency)。他对"代理"(agency)的定义是:"你在塑造周围世界和自己人生道路方面具有某种能力、控制力和主动的意志参与。"代理不仅仅是消极的自由("别管我"),更是积极做对自己和群体有益事情的能力。所以,这里的agency更多是说能动性,而非agents代理。
他特别强调这个概念随技术演进:"我的代理能力在有马的世界、有汽车的世界、有飞机的世界、有手机的世界都是不同的。代理的概念不仅仅是鲁滨逊·克鲁索式的个人主义,我们的代理最核心的是集体性的——个人在群体中的代理,与其他个人互动的代理,以及群体本身的代理。"
这里解释一下:"鲁滨逊·克鲁索式的个人主义"指的是《鲁滨逊漂流记》中主人公那种完全孤立的、自给自足的生存方式。鲁滨逊独自一人流落荒岛,完全依靠个人能力生存——这代表了一种极端的、与世隔绝的个人主义。
但霍夫曼指出,现实中的"代理"不是这种孤立的个人能力,而是:
1. 技术依赖的:在有马的时代,你的行动范围和能力与马有关;在汽车时代,你能开车去更远的地方;有了手机,你能随时联系任何人。技术改变了我们的能动性。
2. 集体性的:我们的能力大多来自于:
* 个人在群体中的位置(比如你在公司中的角色)
* 与他人的互动(通过合作实现更多)
* 群体本身的力量(集体决策、社会运动等)
换句话说,霍夫曼认为真正的"超级代理"不是让每个人变成超级英雄般的孤立个体,而是通过技术增强我们在社会网络中的连接和协作能力。这就是为什么他创立了LinkedIn——它增强的是人们在职业网络中的"代理"能力。
当被问及为什么在AI发展上采取"边飞边修建降落伞"的态度时(也就是不能像辛顿所言,应该把AI发展停下来,想清楚怎么能安全,再继续干),霍夫曼提出了一个关键观点:人类想象力是有限的。他在牛津的博士论文研究思想实验——这是哲学家常用的一种方法,通过想象假设情况来探讨哲学问题。但霍夫曼发现很多人在使用思想实验进行哲学推理时没有意识到其局限性。"比如,你能想象以光速行进吗?很多不懂物理的人会说'当然可以'。但根据爱因斯坦的相对论,光速行进意味着无质量、无时间的状态。我不确定你真的能想象那个。你可能只是在想象高速行进但速度计坏了。"
因此,要真正理解技术如何改变我们的生活,必须实际参与和体验。"当然,如果有个按钮按下去世界就毁灭了,我们不应该实验按那个按钮。但当我们有能力部署、迭代和体验事物时,这实际上是我们如何通过所有这些技术进化成为更人性、成为homo techni的方式。这是我们对所有技术采用的模式,也是我们应该对这项技术采用的模式。"
面对历史上的技术风险——主持人提到古巴导弹危机时,人类差点因为核战争而毁灭,只因为一艘俄核潜艇上三名军官中的一人拒绝发射——霍夫曼承认技术确实可能带来毁灭。"技术是危险的,随着我们获得越来越强大的技术,人类可能自我终结。"
但他认为关键是建立"相对稳定的、保护人类的制度和技术"。以核武为例,"我们不会作为80亿人的人类社会聚在一起说,我们都要摆脱核武器。那不会发生。"所以我们需要的是创造稳定系统。核武器的互相确保毁灭(MAD)原则之所以有效,是因为"我们只允许那些倾向于维持现状的大国拥有核武器——如果我是其中一个首脑,我应该喜欢保持现在的状态,并不想要核战争。"
这种平衡带来了额外的稳定措施:"我们如何在保持核武器的同时增加稳定性?我们允许彼此进行窥探,让我们保持信任和稳定。"
对于AI可能带来的存在性风险,霍夫曼批评了一种常见的错误思维方式:单独评估每个存在性风险。"人们会说:'你能保证不会制造杀手机器人吗?'不能。'你能保证不会有像终结者那样的超级智能吗?'不能。'那我们应该采取预防原则,现在就暂停。'但这是假设杀手机器人是唯一的存在性风险。"
他指出,我们面临许多存在性风险:"我们有流行病(自然的和人为的)、小行星、气候变化……"(主持人开玩笑地插话:"播客。"霍夫曼回应:"播客的存在性风险确实非常非常高。")"我们应该关注的是:任何干预如何影响存在性风险的整体组合?我的观点是,AI在降低整体风险方面实际上是积极的,特别是在应对流行病、气候变化,甚至小行星威胁方面。"
关于技术转型期可能带来的痛苦——主持人提到工业革命带来了战争、童工等问题,以及有人认为狩猎采集生活可能比农业社会更好——霍夫曼承认:"当我说认知工业革命时,我既指向所有的好处,也指向转型问题。工业革命的转型是残酷的。"
但他强调,这不是单人游戏:"拥抱技术的社会将塑造世界的价值观和形态。所以,虽然会造成痛苦,但对我们的孩子、他们的孩子、后代,以及你希望在人类中看到的价值观来说,引领这条道路是重要的。尽管如此,让我们仍然尽可能使转型人性化、优雅和高雅。"
关于为什么选择"代理agents"作为书名,霍夫曼用了一个生动的比喻:叫Uber时,你可以认为"我召唤了它,司机因为我要求而来这里,要去我想去的地方"——这是一种拥有性的代理感;也可以认为"天哪,我必须去那里,但我害怕上车,讨厌不知道司机水平如何……"——这是失去性的代理感。
"选择'代理'这个标题的微妙原因是:拥有代理权。"这有点像斯多葛学派和佛教的观点:世界就是这样,你是想心甘情愿地前进,还是被拖着踢打尖叫?"拥抱并帮助塑造它,这是人类提升的方式。这也是我选择'agency'作为书名的更微妙原因之一。"
八、多中心治理:基准测试如何成为"隐形"监管
霍夫曼提出了一个有趣的观点:公司实际上已经在没有明确监管的情况下受到了相当程度的规范,他称之为"多中心治理"。多中心治理意味着权力和控制不是集中在单一中心,而是分散在多个相互关联的节点中。
"导致所有实体——个人、群体、社会——受到监管的,是这些相互关联的网络。"公司生活在多个网络中:客户网络(如果客户说"我们讨厌这家公司,滚开",公司就必须适应改变)、股东网络、员工网络、员工所在的家庭和社区网络、媒体网络(公司高管想要被正面评价)。
"这一切都发生在监管机构介入之前,"霍夫曼说,"已经有许多相互关联的网络在起作用。我认为监管机构实际上是在设定这些网络的规则,就不必建立一个'监管牙刷刷毛数量'的机构,而是通过更微妙的网络力量来治理。"
特别引人注目的是AI领域的基准测试如何成为一种"监管"形式。基准测试是用来评估AI系统性能的标准化测试。霍夫曼解释说,有一整套基准测试:能力基准(AI能为你产生什么好处)、安全语料库、人类对齐语料库。"这些基准测试衡量的是,当你进行红队测试或测试时,你是否成功避免了不良行为?"
红队测试是一种安全测试方法,指模拟对手("红队")来测试系统的防御能力。在AI领域,红队测试通常指尝试让AI系统产生有害或不当输出,以发现和修复漏洞。
"这些基准测试今天就存在,完全独立于监管机构,因为我们都在说:'我的产品比你的好,我有更好的安全和对齐基准。'"霍夫曼指出,这种方式甚至比传统监管更好,因为它不仅是消极的限制,而是提供了积极的、规范性的理想目标——"规范性"意味着不仅描述事物是什么,还指出事物应该是什么。
而且,基准测试是动态的,可以随技术发展不断更新。这就是为什么霍夫曼的书中有一章专门讨论"安全创新"。"如果我能找到方法让我的产品更好地对齐、具有更好的安全指标,从而使我的聊天机器人比你的更好,我会宣传它并努力实现。我在为此创新。"
有趣的是,霍夫曼提到早期的汽车监管很多都是创新:有人自费安装了交通信号灯。这种通过创新而非强制实现的监管方式,可能是AI治理的一个重要方向。
九、如何为AI革命做准备:善用工具是关键
在访谈的最后,霍夫曼分享了个人如何应对AI转型的建议。他认为最重要的是:学会使用这些工具。
"绝大多数人,即使是深度使用聊天机器人的人,也不知道它们能做的所有事情。"他举了一个简单但生动的例子:在朋友家想用微波炉做爆米花但不会操作,他直接拍了张照片给ChatGPT,问"如何用这个做爆米花?"AI立即告诉他"按这个按钮,按那个按钮"。"大多数人没有意识到他们可以拍照片,让AI解释这个东西,解释这个任务。"
更复杂的应用包括:上传难懂的文本(比如量子力学论文),要求AI"像对12岁孩子一样解释给我听"。AI会用简单的语言解释。然后你可以说"好,我理解了。现在像对18岁的人解释",再到"像对大学毕业生解释"。"它会逐步深入这些解释。你的提问能力、学习范围和能力范围都已经大大扩展了,但你还没有完全意识到。所以要经常想:我能用它试试这个吗?"
霍夫曼分享了一个关于AI局限性的重要例子:他向朋友Atul Gawande(著名外科医生和作家,正在写新书)展示深度研究功能。Gawande得到报告后惊叹:"天哪,这太棒了。"但当他把报告发给研究助理核查时,助理发现"90%是错误的。他们引用的那句话不存在。它产生了幻觉。在试图达到如此具体的要求时,它开始编造东西。"
AI的"幻觉"指的是它生成看似合理但实际上不准确或完全虚构的信息。这是当前大语言模型的一个已知问题。
然而,研究助理补充说:"但这里有个惊喜:它指向的领域中,确实有其他完全正确和有用的材料。所以实际上,虽然它给出的具体内容是幻觉,不能用在书中,但它指引的方向让我的搜索效率大大提高。"
对于职业发展,霍夫曼强调:"未来十年最重要的高阶能力是:你使用这个工具的能力如何?"这就像"你如何使用互联网进行研究"对各种专业人士都很重要一样。"如果你是柏拉图学者,你应该使用AI工具来增强你的研究。这不是说你现在可以像《蠢蛋进化论》(一部讽刺电影,描绘了一个智力退化的未来社会)里那样坐着吃糖果喝运动饮料,让AI告诉你所有柏拉图学术。我们离那还很远。但作为对话工具,它能帮助你更深入地理解。"
当被问及什么技能可能变得不那么重要时,霍夫曼特别提到法学院:"如果你现在去法学院,可能不是个好时机,因为他们还在用旧方法教学,而不是新方法。"但他强调,法学院仍然重要,只是未来的法学院将教授"我们都将在法律工作中使用AI代理"的新方法。
关于AI是否会完全取代人类工作,霍夫曼提到了AI国际象棋的两个重要时刻:第一个是AI击败人类大师,但之后"人马合一"团队(人类加AI)仍然能击败纯AI;第二个是任何人类干预都只会成为AI负担的时刻。”人们应该担心的是第二个时刻,因为这意味着不再需要有人类参与决策行动。”
但霍夫曼认为在工作领域,我们离这个时刻还很远:"技术专家和AI指数主义者认为这会很快到来,但我认为不会。因为虽然AI在提高能力,但这不意味着没有我们能很好融入的地方。"
他举了放射科医生的例子:"即使今天,如果问我是要一个普通放射科医生还是训练过的AI读我的X光片?我会选AI。但我更愿意两者结合。"只有当"人类再也无法与AI在这方面合作,而AI独自工作更好"时,才会出现完全替代。"客户服务可能是最快被取代的领域之一。不过对于这个场景,人们会说,'好吧,那不是问题,取代就取代吧。’”
但如果真的到了所有工作都被取代的地步,"我们会有其他问题要担心。这就回到了我说的中世纪贵族的经历——也许我们会生活在星际迷航的世界里,一切都由机器人基础设施提供,我们真正关注的是诗歌、晚宴、沙龙……这不是最糟糕的结果。"
最后,当被问及当前的AI架构是否能通过规模化(scaling law)达到那个世界时,霍夫曼表示:"规模将是至关重要的。我认为OpenAI团队——Sam(Altman)、Greg(Brockman)、Ilya(Sutskever)、Dario(Amodei)等人——发现了规模真的很重要,他们是对的。"
但他也认为仍然需要架构创新:"一旦你认为只需要一种(架构)创新(如Transformer架构),实际上总是需要'一个以上’——因为你不知道那是一个还是一千个。"他提醒我们不要过于乐观:我们看到技术早期快速发展时,往往会错误地认为这种增长会一直持续。人们会说'看,AI越来越聪明了',但实际上我们看到的可能只是某些具体能力的提升,而不是真正的智能全面提升。"
也就是说,当人们看到AI能力快速提升(比如从GPT-2到GPT-3到GPT-4),往往会认为这种指数级增长会一直持续下去,最终很快达到人类级别的通用智能。这就是所谓的"在曲线的早期阶段过于指数化思考"。
不过,AI在语言处理、图像识别等具体任务上的进步,可能并不等于它在通用智能上也有同样的进步。就像一个人可能计算能力很强,但这不代表他在所有智力方面都很强。
霍夫曼还听到一个有趣的观点:在这波AI浪潮中,人文学科背景的人可能比工程师更有优势。"原因是,工程师并没有更好地理解AI内部发生了什么,因为它是黑箱性质的。所以很多优势来自提示工程和与文本的互动。"他部分同意这个观点:"工程仍然非常重要。但实际上,当我们思考AI如何提升人类时,人文学科的东西确实非常重要。什么是代理?什么是提升?这些代理如何融入?我认为这是人文学科在创造我们AI未来中重要性的回归。"
来源:高飞的电子替身