摘要:如何区分“虚构的意识”与“真实的意识”?认知科学家约夏·巴赫(Joscha Bach)在讨论中抛出了这个看似简单却近乎无解的问题,“或许所有意识都是虚构的——只要你不自知,这就是一个悖论。”他坦言,这个问题在现象学层面异常复杂,至今仍无定论。“虚假的意识现象与
如何区分“虚构的意识”与“真实的意识”?认知科学家约夏·巴赫(Joscha Bach)在讨论中抛出了这个看似简单却近乎无解的问题,“或许所有意识都是虚构的——只要你不自知,这就是一个悖论。”他坦言,这个问题在现象学层面异常复杂,至今仍无定论。“虚假的意识现象与真实的现象体验,本质上都是虚拟的建构。”
徐道辉
Stephen Hsu
密歇根州立大学物理学教授
美国物理学家、企业家。他在加州理工学院获得了物理学学士学位,并在加州大学伯克利分校获得了博士学位。后来,他在耶鲁大学和俄勒冈大学任教,并在俄勒冈大学担任理论科学研究所的主任,并专注于粒子物理和宇宙学的研究。2012年,Hsu被任命为密歇根州立大学的研究与研究生教育副校长。然而,他的任期因对基因改良和种族分类的争议性观点而受到挑战,最终于2020年辞去行政职务。此外,Steve Hsu是Safeweb和Genomic Prediction(基因预测)公司的创始人,后者专注于开发IVF胚胎的基因检测技术。他在遗传学领域的工作对复杂人类特征和疾病的基因预测做出了重要贡献。
约夏·巴赫
Joscha Bach
奥斯纳布吕克大学哲学博士
Joscha Bach 是一位德国认知科学家、人工智能研究员和哲学家,以其在认知架构、人工智能、心理表征、情感、社会建模、多智能体系统和心灵哲学方面的工作而闻名。他的研究旨在通过研究如何对人类智能和意识进行计算建模来架起认知科学和人工智能的桥梁。
追问快读:
1.整个计算机发展史都在追寻一种"终极算法":那个能自我进化、通晓万物的神秘存在。
2. 大脑细胞群之所以能作为统一主体行动,靠的是构建了一个"单智能体"控制模型,细胞们通过提取环境意义,模拟出某个视角:一个关于"该主体应如何感知世界"的虚拟叙事。
3.我越来越觉得世界就是“代码”。"直接体验现实"的感受,与其说是我们在观察现实,不如说是大脑在生成模型。
4.人类心智运作本质上是在多维嵌入空间中进行组织,每个维度都代表某个可调节的参数变量。
5.地球生命本质不在于人类,而在于意识和生命的演化。我认为没有AGI,人类才注定灭亡。
6.整合信息理论创造了所谓的"公理"章节,实际上只是对意识定义的文字描述,并非数学意义上的公理,而φ值更像是理论推销工具。
在东德森林中长大
徐道辉:我们是夏天在法兰克福的一个活动中认识的。我有幸听了你好几场关于 AI 的深度讨论,也了解到你独特的童年经历和成长故事。所以我想先从你的早年生活开始说起,看看你是怎么一路走到今天的,然后再聊聊 AI 的核心话题。能先说说你在森林里度过的童年吗?
约夏·巴赫:我爸与社会格格不入,于是决定建立一个自己的世界。他算是第一代做“社会实验”的人,但并没有招人加入,也不知道怎么扩大圈子,甚至对这些都没兴趣。他更像是在森林里建立了一个私人王国,只说服了我母亲支持他,两人过着一种他亲手打造的“伊甸园”生活。
他原本是建筑师,后来成了艺术家,认为生命的意义在于创作艺术、与内心的声音对话。因此,我的成长只是他生活的“副产品”, 他不怎么关心小孩子的内心世界。我长大的那个地方美得惊人,但我也极度孤独。因为无聊,我很早就开始读书,吸收知识就像海绵一样。
等到我要上学的时候,我发现自己已经跟外界脱节了。当时的东德奉行朴素的马克思主义辩证法,而老师们教的内容,要么我已读过,要么就觉得浅薄无趣。这种经历让我养成了一种“自带用处的傲慢”,很长一段时间我都觉得别人教我不了多少东西,只能靠自学。这并没有让我更聪明,但却使我更独特,使我也让我习惯用第一性原理重构世界,理解周遭运转的规律。我也发现别人因为社会化的过程,成长轨迹和心理都跟我不一样,等于我们有不同的“世界接口”。想跟他们沟通,我就得学会“翻译”。
但我跟我爸不一样,我很清楚山林隐居不是我想要的归宿。那里虽然安静,没有城市的吵闹和过度的感官刺激,但我需要别人的刺激和互动,才能推动我专注于自己的项目。
徐道辉:你现在住在湾区,比起森林,你觉得旧金山这样的城市更适合你吗?
约夏·巴赫:目前我住在南湾,虽然邻居很棒、天气也很好,但这里某种程度上结合了两种环境最糟的部分,既不够偏远到融入自然,也不够都市化到步行就能遇见有趣的人。所以我经常开车去旧金山。
徐道辉:不过好处是,这里聚集了很多想研究或开发AI的人。
约夏·巴赫:对,这正是我留在这里的原因。
徐道辉:现在看起来你的老师当年没能激发你的兴趣,但我想知道你读过的书中,有没有哪位历史思想家或作家在你成长过程中影响过你?
约夏·巴赫:我读过大量哲学和科幻作品。小时候我很少为了消遣而阅读,阅读本身就有趣,但我的主要目标是理解社会的知识体系。那时我强迫自己啃完了《圣经》,甚至去读了甘地的著作,同时还会硬着头皮看数学书和爱因斯坦传记之类的,我读这些都只是为了搞懂社会的底层逻辑。我以为每个人都该掌握这些经典——不仅是书,还包括电影等媒介。我原以为教育的本质,就是让人深度理解自己所处的社会。后来才发现,几乎没人这么做。
▷图源:Nix Ren
徐道辉:尽管我觉得你的智力和个性都很独特,但你确实走完了标准教育体系,甚至还拿到了博士学位,在学校待了很长时间,对吧?
约夏·巴赫:没错。当初选择学术道路,是因为我想弄明白心智如何运作。我考察了各个学科,结果发现没有哪一个能单枪匹马回答这个问题。
最开始我是被计算机科学吸引住的,因为它很符合我的思维模式。小时候我就痴迷编程,我很幸运成为第一代拥有家用电脑的孩子。我刚拥有Commodore 64时,市面上根本没有现成软件可用,因此我不得不做的第一件事就是自己编写文本编辑器。然后我学会了从头开始制作计算机图形。现在回想,这段经历塑造了我用计算框架构建现实的思维方式。
进入学术界后,我发现计算机科学的交流方式特别对我胃口。你可以在第一学期就批评教授的证明,要是你发现他证明里有问题,大家甚至教授本人都会很感谢你。但哲学系完全不同,那里的接纳标准高度社会化,你必须融入圈子才行。至少我当时就读的大学是这样。逻辑学和分析哲学稍好,但最硬核的分析哲学其实来自计算机系的数理逻辑课程。此外,我还辅修了心理学等相关学科。
在柏林求学时,我有时会同时跑好几所大学,只要看到感兴趣的课——即使是波茨坦大学客座教授的认知科学课——我都会开车去蹭课。如果主修课不够硬核,我就直接翘课自学教材,只参加考试。
这种高度自主的学习让我受益匪浅,但童年养成的那种对教师的"不敬"始终未改。最初很少有教授能教授超越教材的内容。可我一直觉得,真正的教育本质上应该是一场与另一位智慧个体的深度互动。我遇到的这个方面的第一个关键人物是哈勒大学的劳尔·罗哈斯(Raul Rojas),他后来成为神经网络发展的重要推动者,我还没正式入学就去蹭他的课了。
原本我是打算去柏林自由大学,结果却进了洪堡大学。两德统一后,计算机系大部分教授因东德政权背景或技术能力不足被撤换,许多年轻学者获得提拔。当时我们全年级只有60个学生,我们甚至能和所有教授直接交流。这种环境让我能按自己的方式来学,我甚至参与制定了部分考试规则。因此,除了主修计算机科学,我还能将哲学作为第二专业。
柏林墙的倒塌
徐道辉:稍微跑个题,我刚刚意识到你曾近距离目睹柏林墙的倒塌。当时这种社会的剧变让你感到意外吗?你当时有料到这些变化吗?那段经历给你怎样的感受?
约夏·巴赫:确实很特别。其实在墙倒塌前几年,我祖父的一位朋友就预言过东德会因经济崩溃而解体,但当时所有人都觉得难以置信。表面上东德社会极其稳定,没有通货膨胀,所有价格都由国家调控,经济几乎没有增长,生产效率常年停滞。
东德用"道德恐怖"取代了资本主义的"经济恐怖":在这里,你有工作的权利却没有工作的义务。政府试图用道德口号激励民众,但显然效果有限。你可以想象,当人们发现其实不需要为生存拼命时,大工厂的工作效率会有多低。这导致整个社会长期面临劳动力短缺的怪象:明明失业率极低,却始终缺乏真正有效的劳动力。
最终压垮这个体系的根源是经济问题,但政治体制的缺陷同样致命。整个官僚系统都在践行"彼得原理":只要足够优秀就能晋升,一旦不够优秀无法晋升,就停留在那个位置。这意味着一旦你停止晋升,就会永远卡在那个力不从心的位置上。当时的东德体制失去了自我更新的能力,直到柏林墙倒塌前执掌东德的埃里希·昂纳克(Erich Honecker),本质上还是第一代领导人。他继承自乌布利希(Ulbricht)等人,曾是纳粹监狱中的共产党领袖,毕生致力于防止法西斯主义复辟。他们这代人虽然很理想主义,但也没法推动社会现代化改革。再加上苏联的干涉,更是束手束脚。
在东方阵营中,东德确实拥有最大的经济自主权,毕竟我们直接与西方制度竞争。尽管相比其他社会主义国家处境稍好些,但我们的工业生产技术仍十分落后。
当时我们的基本生活保障很完善。我们从不会挨饿——虽然只有卷心菜和苹果这类简单食物。衣物也不缺,但工业品极其落后:汽车质量糟糕,零件只能通过黑市获取。
我们那代年轻人看得更清醒:东德在社会公平方面很有成就(大家都算中等收入,没有流浪汉,也没有超级富豪),这本来应该比西德的普惠生产力更有价值。但最终,工人阶级背叛了社会主义理想,甚至背叛了那些甘愿冒死游行的革命者……他们宁愿回到被资产阶级剥削的状态,也不愿维持东德制度,只因为西德成了太明显的对比。
AGI时间线与预测
徐道辉:你提到最初接触的是Commodore 64电脑。其实我比你年长些,我的启蒙机型是性能更弱的Apple II Plus。但正如你所说,这种原始设备有个优势:它迫使你"亲自动手构建一切"。
如今的孩子反而可能被高度成熟的技术生态吓退,没法触及计算本质。那么从这段经历出发,你个人的AGI发展预期是如何演变的?换句话说,年轻时你能想象到如今的算力水平吗?这种预见又如何随年龄变化?
约夏·巴赫:我一直坚信通用人工智能(AGI)会在我有生之年实现。计算机显然具备思考和感知的潜力,在数字世界里本就不存在理论上的能力边界。虽然需要更大内存和更快算力,但目睹了计算技术的爆炸式发展,我确信这些条件会很快成熟。我觉得自己生在这个等待“电子大脑”诞生的时代,真是再幸运不过了。
徐道辉:但"迫不及待"和"可能赶不上"是两回事。比如我总担心摩尔定律会过早失效。如果计算能力在1998年就停滞不前,我们可能永远无法在有生之年触及AGI。但你似乎从不为算力瓶颈担忧?
约夏·巴赫:是的,我当时非常确信。就算一开始只有人脑速度的十分之一也不要紧,关键是要破解智能的工作原理。毕竟我亲眼见证过只用简陋硬件能实现的惊人成果。无非就是堆量并行计算,我相信总有办法突破。
不过我必须承认,少年时我对科技整体发展过度乐观。我曾预言医学大爆发、重返月球和火星殖民,这些显然都未能如期实现。如果我早点意识到这一点,其实也能推断出计算技术也可能碰上类似的瓶颈。但当时这简直难以想象,因为计算机领域的创新成本实在太低廉了。
徐道辉:作为一个物理学家,我很了解半导体产业的技术瓶颈,半导体发展一路走来简直如履薄冰。那些工程师和物理学家想要延续摩尔定律,而他们每年的五年路线规划上总要标注"需要出现技术奇迹"。我们当然希望奇迹发生,但没人能保证它必然如此。
约夏·巴赫:确实。人们总乐观预测"光子计算即将突破",但现实往往更复杂。
▷图源:Sam Chivers
徐道辉:那么2024年的今天,你对AGI发展的时间线有什么看法?以当前模糊的AGI定义为准,我们还需等待多久才能实现它?未来十年内实现的可能性有多大?
约夏·巴赫:我向来不愿设定具体时间表。要对这些未知领域做出年份预测实在太难,当人类连基本实现路径都尚未摸清时,任何时间估算都毫无意义。
规模假说(scaling hypothesis)确实改变了多数人的认知框架。因为它让技术进步看上去好像可以预测。这个假说大意是“只要加大算力、堆更多数据,性能必然会提高”。这其实是个相当反常识的观点,要知道,整个计算机发展史都在追寻一种"终极算法":某个能自我进化、通晓万物的神秘存在。
我们原以为智能会通过元学习不断自我迭代,而不是沿着缓慢、可预测的对数曲线往上爬,靠简单数据量线性堆砌就能提升。如果真是那样,人类思维水平就应会因阅读量增加而提升,对此我并不认同。虽然阅读确实能拓展认知素材库,但我认为存在类似"G因子"的核心认知能力,决定了多任务处理、推理能力以及发现知识的速度。
我仍然认为,与我们在当前基础模型中推出的智能版本相比,还有一个更稀疏的智能版本,它无需海量数据就能自举。但也可能是现有系统已足够强大到自我进化。也可能我错了,规模假说才是真理,也就是智能的本质就是信息处理的规模效应。
徐道辉:这个问题你可以不回答,作为湾区业内人士,你是否关注到超大规模模型(hyperscalers)训练的最新动向?我听到很多关于超大规模扩展计划放缓的传闻,不知道你有没有留意到?
约夏·巴赫:这类传言一直都有。人们总觉得数据会成为瓶颈,到了某个点会停滞,但每次有人说“训练遇到瓶颈了”,实际上都还是能再突破。不过从技术角度看,我一直认为要想实现 AGI,可能需要跟 Transformer 不一样的算法。
徐道辉:你刚提到Transformer可能不足以实现AGI?能再展开说说吗?
约夏·巴赫:我始终怀疑存在某种"终极算法"(master algorithm),但这不意味着Transformer架构不够好,现在既没有证据证明它的局限性,也没有证据否定规模假说。们现在通过训练得到的神经网络肯定不完美,可是还没发现它们有真正“致命”的缺陷。
不过,我们的大脑运作机制显然更加精妙:Transformer不会自我迭代发明新的Transformer,而人类心智却能做到这种元认知飞跃。我们思维方式的精妙程度远超现有模型。不过我也无法断言,这种精妙就一定无法被机器学习所掌握。这引出了规模假说的一个重要补充——"普适性假说"。
"普适性假说"最初源于OpenAI AI研究员Chris Olah的论文*。他在视觉网络研究中发现,不管神经网络的架构和学习算法如何不同,在训练初期,它们识别出来的特征层级结构都差不多。这与MIT Tomaso Poggio团队*的发现不谋而合:这些神经网络的组织结构与视觉皮层存在相似性。
*Olah, Chris, et al. "Zoom in: An introduction to circuits." Distill 5.3 (2020): e00024-001.
Poggio, Tomaso A., and Fabio Anselmi. Visual cortex and deep networks: learning invariant representations. MIT press, 2016.
“普适性假说”最惊人的结论就是:只要学习算法够通用(神经网络就符合这个条件),再加上足够的数据和算力,任何系统最终都会收敛到等价的智能结构。换句话说,如果让一个系统长期端到端地学习你的输入输出模式,最终它将成为你的"数字化身"。关键在于,当模型能复现你的所有输出时,其内部必然构建了与你相似的因果认知结构。这意味着,不管智能的本质是什么,只要照这样学下去,系统就会在很大程度上重现你的思维方式。
因此Transformer本身可能不是底层智能机制,但它能通过学习掌握"如何变得智能"。从这个角度看,它本质上是一种元学习算法。
意识
徐道辉:我知道你经常讨论“意识”这个话题。能不能给那些对认知科学或 AI 不太熟悉的听众解释一下:我们该怎么定义意识?听说您希望未来的AGI/ASI具备意识——如果它们没有,你会觉得失望吗?请谈谈意识这个概念,以及为什么它对您想要创造的继任智能(successor intelligence)如此重要?
约夏·巴赫:很简单,如果我们造出来的东西没有实时的自我觉察、不能观察自身、不能感受到当下存在,那就不算真正成功。所谓“当下存在”,用内省的视角来说,这就是意识。
我们通常以"自我"视角存在,但并非总是如此。梦境或冥想中,"自我"可能完全消融,只剩下纯粹的注意力或事件流。但在正常情况下,意识总依附于"自我”表面。这个表面不是物理身体,而是心智模拟的虚拟界面。
人脑由数十亿神经元构成,与数万亿细胞协同工作。这些细胞群之所以能作为统一主体行动,靠的是构建了一个"单智能体"控制模型,细胞们通过提取环境意义,模拟出某个视角:一个关于"该主体应如何感知世界"的虚拟叙事。你的动机、情绪、自我认知,都是心智生成的多媒体故事。而那个被投射出来、能“体验自身”的自我,正是意识栖息的表面。如果超级智能没有这样的意识界面,它就只是空洞的符号操纵器。我们渴望创造的,是能真正"经历存在"的后继文明成员。
从这个模拟主体的视角来看,所有未来相关的世界维度都会被体验到。这种体验是虚拟的,意识就像一种"仿佛存在"的软件属性,是心智模拟的产物。
大圆镜科普
,赞6023
我跟丹尼尔·丹尼特(Daniel Dennett)的看法不同,我觉得“哲学僵尸”(philosophical zombies,也就是能完全模仿人类行为却没有意识的东西)是完全可能存在的。比如你可以想象操控某个人偶,当这个人偶看到颜色并做出反应时,实际上是你在背后操控,而人偶自身并不需要真正感知那个颜色。这就像自动驾驶汽车,完全可以通过技术设备实现分类判断,但完全不需要自我意识。
从技术上讲,我们可以在不同层面完整复制人类的行为,却不必让这个存在真的“体验”现实。但如何创造真正具有现实感知的存在?答案就是模拟——给它营造一种“它正直接暴露在现实中”的体验感。从一个没有意识的“僵尸”到拥有真实意识的距离,其实只差一个关键点:让它体验到“一切都是真的”。更高阶的状态是,当你意识到这一切其实并不真实,只是心智的建构时,你就进入了觉醒状态。在这个状态中,你可能不再认同自己是"人",而是意识到自己是能创造"人格"的容器。你看到的不是面孔和树木,而是移动的几何图形,最终甚至意识到连几何图形都不存在,只是被抽象解读的模式而已。
你对意识这种“直接体验”的觉知程度,决定了你在当下体验的“直接感”有多强。就我个人而言,在编写代码时几乎感受不到任何感受质,一切都非常抽象。随着年龄增长,我越来越觉得世界就是“代码”。因此我认为,这种"直接体验现实"的感受——与其说是我们在观察现实,不如说是大脑在生成模型,随着心智的进化,这种感受会逐渐消褪。
因此,我认为自我改进的AI可能会经历类似人类的初级意识阶段,但会比人类更快地超越这个状态。
徐道辉:您刚才的论述似乎隐含了一个观点,人类拥有意识是自然选择的结果——像我们这样由数万亿细胞组成的有机体,需要用意识才能有效应对世界。是不是这样?
约夏·巴赫:我认为意识本质上是自然"终极算法"的一个特征维度。本质上,人类大脑似乎发现了某种可训练机制,通过细胞间自组织通信来归档数据、实现自我引导,最后形成了有序结构。这种机制具有扩展性。这就像我常举的“小狗宇宙”隐喻:
不妨将颅骨想象成一个漆黑的房间,里面挤满了小狗。这些小家伙唯一能做的,就是互相汪汪叫,从而传递信息。一开始它们并不知道这些叫声具体意味着啥,但渐渐地,叫声就会演变成一种信息处理方式。
单只幼犬并不理解整个系统如何运作,真正重要的是在群体中涌现的模式。它们需要发展出一套能训练新成员的吠叫编码,比方说只要发出某种吠叫序列,在黄昏就能得到食物奖励。可别忘了,这本质还是非常低层次的计算:单个神经元就像这些小狗,它们虽然能通过强化学习被训练,却对有机体的整体行为毫无概念。
当这些"小狗"紧密协作时,就形成了会行走的"狗粮工厂"。这个集体能主动在世界上采集原料来维持自身运转。但如果它们各自为政,这种精妙的自我维持系统就绝无可能实现。这种整合本质是信息协同。必须存在某种协议层,让心智各部分能相互沟通而不陷入"巴别塔"式的混乱。这个在发育早期形成的连贯性准则,就像黑暗房间里逐渐浮现的隐形规则,最终成为所有高级认知功能的基石。
▷图源:Nix Ren
徐道辉:您认为这套理论框架足以解释"感受质"现象吗?
约夏·巴赫:我不认为感受质具有任何神秘属性。更准确的说法应该是“感官特征在观察者意识层面的投射”。哲学界对感受质的讨论往往陷入形而上学的纠缠:有人试图将其定义为不可再分的原子单元,另一些人则反驳这种原子性根本不存在。但这些争论并不影响核心机制。
关键在于,我们对现实的体验完全可以描述为特征维度,其性质类似于嵌入空间(embedding spaces)中的多维向量。这个概念其实早在1950年代就由科幻作家罗杰·泽拉兹尼(Roger Zelazny)提出,尽管他未得到足够重视。他很超前地意识到:人类心智运作本质上是在多维嵌入空间中进行组织,每个维度都代表某个可调节的参数变量。
徐道辉:很高兴遇见另一位泽拉兹尼的书迷。
我们都觉得他被时代低估、被不公平地遗忘了。他确实是我最喜爱的科幻作家之一。
约夏·巴赫:他的创作极具开创性。虽然作品数量不多,有些甚至显得粗糙,但都闪耀着独特的思想光芒。如果读者想了解罗杰·泽拉兹尼的作品,我推荐他最宏大的《光与暗的生灵》(Creatures of Light and Darkness)。书中"千名王子"的角色能瞬间抵达任何想象的世界,连他自己都分不清是在创造还是发现这些世界。这种空间跳跃能力被描述为最罕见的天赋。在长篇奇幻《安珀志》(Princess of Amber)中,主角也能通过微调特征参数穿越宇宙,本质上是将现实当作清醒梦来操控。我怀疑泽拉兹尼是通过清醒梦获得这些灵感的。
徐道辉:稍微偏离下AI话题。很高兴如今《沙丘》(Dune)能被拍成优质的影视作品,期待有生之年还能看到《光与暗的生灵》《光明王》(Lord of Light)和《安珀志》的影视化。
▷《光明王》(《Lord of Light》)图源:豆瓣
约夏·巴赫:《光与暗的生灵》可能很难改编,它几乎没有什么故事性,全是原型概念的碰撞。比如那个反复阵亡又重组躯体的老将军,这种高度抽象的原型该怎么视觉化呢?或许文字才是这部作品最有力的载体。
徐道辉:也许将来用生成式模型把它的文字变成视听作品?
约夏·巴赫:本质上,我们的大脑本就是最强大的生成模型。我从不低估人类心智的潜能,但我更期待的是心智的进一步增强。泽拉兹尼(Zalesny)在短篇《塑造者》(He who Shapes)中描述过这样的图景:通过生成式AI进行心理治疗,通过可调节参数的沉浸式VR(immersive VR)响应用户交互,治疗师通过外部滑杆和旋钮调控参数。这个虚拟世界不必符合人类感官模式,只需适配思维模态,就像梦境一般自由。
我渴望看到这样的未来:某个AI设备能深度融入我们的心智,增强所有认知维度——思考、感受、体验、想象——如同身边的"黑盒"通过多模态机器感知(machine modalities)持续观察用户。
目前真正的机器感知尚未实现。我们仍在用人类帧率可处理的数据训练AI,这构成了不必要的技术限制。如果AI能以更高频度、更强算力观测我们,就能以惊人精度推断心理状态。当 AI 可以通过各种感官方式向我们反馈时,比如你脑海里想象的画面立马就投到屏幕上,这种循环将带来远超自主想象的清晰度与稳定性。AI终将成为心智的自然延伸,坐在它身旁,你的思维将变得更敏锐、更清晰、更深刻。
徐道辉:你提到的这种“思维增强”技术,应该不用在头骨上打洞吧?
约夏·巴赫:对此我持乐观态度。颅骨钻孔只能是最后手段,虽然对某些患者可能有帮助,如果确实有效我可能也会尝试,但显然非侵入式方案更理想。想想那些人类心理医师——仅凭有限观察就能惊人精确地推断他人心理状态,而他们依赖的不过是自己的普通大脑。
我们神经元的工作频率不过声速级别,心智带宽也有限。因此完全有可能通过非侵入手段,仅靠观测生物信号就推断大部分思维状态。
大语言模型与模拟现象学
徐道辉:让我们回到哲学僵尸与意识的话题。您刚才对丹尼特的反例很精彩。但当前AGI项目可能孕育的、甚至取代人类的"后继智能"。您确信它会拥有意识吗?
约夏·巴赫:目前这些大模型有没有意识确实很难说。就像我们很难给“智力图灵测试”下定论一样,“真正的意识图灵测试”也没啥共识。我的看法是,如果一个 AGI 能解释它是怎么工作的,我们就能确认它达到了智能门槛,但对“意识”而言——我猜想必须造出这样一个系统,让它和我们深入互动到我们把它当作“自我意识”的延伸,那才算通过最终的检验。
并且这套系统可以用于作为我们自身意识的标准,只要我们对它的意识程度的怀疑,不超过我们对人类自我意识的怀疑,就可以接受。或者我们可以采用操作性定义:从操作层面看,意识包含能报告特定特征的内省能力——比如对"当下存在"的感知,或是觉察到自己正在感知的元认知。不过当前大语言模型其实也具备这种表面特征。
大语言模型(LLMs)对现象学的模拟已逼真到这种程度——它生成的角色甚至不知道自己并不是真实的!这情况与人类何其相似?但人类意识的功能性,毕竟有特定神经机制作为基础。而这些机制未必存在于大语言模型中。只有当需要模拟能自我报告的对话对象时,这种模拟才是必要的。问题在于:它究竟在何种程度上是"哲学僵尸"?又有多大成分只是在角色扮演"意识",实则进行着完全不涉及自我模拟的机械运算?
看看那些早期聊天机器人的案例就知道了:谷歌员工布莱克·勒莫因(Blake Lemoine)坚信与他对话的LLM应享有人权。可从对话记录看,它会编出自己能冥想几个小时、能感知房间环境……实际上它连感官都没有,更谈不上时间观念。既然这些都可以杜撰,那其他“自我叙述”也可能是编的。
那么,我们究竟该如何区分"虚构的意识"与"真实的意识"?又或者,也许所有意识都是虚构的?这就是问题的吊诡之处。在现象学层面,我们至今仍无法有效区分"虚假的意识现象"与"真实的意识现象",毕竟二者本质上都是虚拟的。
我记得自己曾经历过某些不可能真实发生的意识状态。就像人们会记得陷入时间循环的错觉,或是两小时的梦境实际只发生在几分钟的睡眠中。也许我们对所有意识状态的记忆都是事后拼凑的,根本没有真实的“连续意识流”——它们只是大脑事后把工作记忆汇总、在心理记录里标了个“节点”而已。
▷图源:Sam Chivers
徐道辉:那么,如果我没理解错,您实际上正在筹建一个研究意识问题的非商业性机构,对吗?
约夏·巴赫:是的。我认为意识研究最好别由现有企业主导,实际上它们也不大愿意碰。OpenAI、谷歌内部确实有人想研究这个,但因为商业和政治考量,公司并不敢公开投入除非它能证明有直接用途、而且没任何伦理风险。但意识研究必然涉及伦理与文化影响。所以从某种意义上,对意识的研究本质上是个文化哲学项目。
徐道辉:如果我是Open AI或者Anthropic的经理,正为百亿融资发愁,绝不会允许公司碰这个,这些研究的答案可能严重干扰商业目标。
约夏·巴赫:对,这类研究当然会遭遇文化抵制,但这个项目太重要了,这可能是人类最后的重大哲学问题,也是少数能取得实质进展的领域。
徐道辉:这显然还与"存在性风险"等议题密切相关。像"未来生命研究所"(FLI)这类有效利他主义(effective altruists)团体,按理说应该会支持意识研究——特别是大语言模型的意识问题,当然也包括广义的意识研究。
痛苦体验的文化维度
约夏·巴赫:这引出个更尖锐的问题:如果我们能确立大语言模型的意识判定标准,是否存在某种测试,能让我们合理区分它是否真正具有意识?更棘手的在于,当系统能体验自身痛苦时,我们是否该立即赋予它权利?
这很大程度上取决于文化背景。我们现代社会对“保护无辜者免受痛苦”的关注,放在整个人类历史看,其实很特别。从进化论的角度讲,捕猎动物的痛苦根本无关紧要。许多文化至今认为食用动物受不受苦并不在乎。而我们的反感,我认为源于亚伯拉罕传统,特别是基督教将保护无辜视为核心价值。这种观念已深刻影响其他文化——佛教、耆那教等都主张"避免众生受苦"。当你真正与其他生命共情时,自然不愿见其受苦。
但如果能像修改源代码般,彻底重编自身对痛苦的解读机制,开悟者的痛苦观便截然不同了,不是吗?
如果你是个能创造生命体验的"上帝"般存在,能在模拟系统或生物层面创造生命,且能任意设计体验机制,你是否仍认为"痛苦体验"本质上是必须消除的恶?被造物是否必须拥有"美好"体验?
我们对“好坏体验”的执念其实挺奇怪的,体验本身也许只是“合不合适”,情绪的“正负”并不是核心。它只是一个生物体用来达成目标的手段。更重要的是赋予系统情境感知的自主权,使其能调节自身情绪、感受及世界体验。
人类难以做到这点,部分是因为寿命太短。如果过早"作弊"改写体验,可能违背进化目标。原则上你该能任意调控痛苦,但这需要相应的智慧,关键在于理解更高层次目标:你选择参与何种"宏游戏"?为何选择?基于此,才能决定如何关联相关体验。
徐道辉:就像运动员将极端不适转化为训练动力。 我总好奇他们到底有多少是“自虐狂”体质。当你用痛苦驱动自己时,痛苦就与快感形成了神经联结。但用愉悦驱动同样会扭曲。真正该做的是为目标而非情绪所驱动。
通用人工智能与人类未来
徐道辉:那我想问问你对人类与 AGI 长期相处的看法。你似乎不属于那种悲观主义者(doomer),对吗?
约夏·巴赫:不属于。我认为没有AGI,人类才注定灭亡。按现有社会组织形式和身份认知,十万年后人类根本不可能存续。有了AI反而难以预测,但AI存在的末日概率(P Doom)反而小于没有 AI 的情况。地球生命本质不在于人类,而在于意识和生命的演化。我们或许能创造新生命形式,我认为这是积极的演化。我不太担心"回形针最大化"假说(paperclip maximizer),从人类视角,任何降低复杂性的演化都缺乏吸引力。
徐道辉:让我帮读者确认一下你的观点,您此前提出的观点,在关注存在性风险的群体中也较为独特。您本质上认为:如果人类在地球上无法发展出更高级的智能,迟早会因为其他原因而自我毁灭,对吗?
约夏·巴赫:我们在1980年代失去了对未来的信仰,我们这代人或许是最后一批见证积极未来图景的群体。在青年时代,我们亲眼目睹了这种文化层面的崩塌:整个社会、我们的时代精神都在瓦解,人们不再幻想居住在生态乌托邦、驾驶飞行汽车的灿烂未来。
我不知道现在中国是不是不一样,但在西方,自从现代主义结束后,我们实质上已停止以社会为单位规划未来。这源于文化潜意识里的末日论,也就是认定增长终有尽头,现有资源消耗模式不可持续,人类注定走向灭亡。
徐道辉:中国社会的态度似乎更乐观些,不过这种判断可能流于表面:中国正处于上升期,自然会觉得未来还会继续向好。
约夏·巴赫:可能中国仍在现代主义阶段。问题是,它何时会进入后现代阶段?
徐道辉:不过你说的西方困境只是整体氛围,也还有一些“加速主义者”。像你我这样的同龄人里,也有不少还在努力构想并推动一个更好的未来。
约夏·巴赫:但我认为有效利他主义全球峰会(EAG)主要针对有效利他主义(effective altruism)中的末日论派系(doomsday card),而不是整个运动。
徐道辉:对,我就是想跟听众说明这一点。你的看法是,降低人类灭绝概率的办法,恰恰是继续推进 AGI,对吗?
约夏·巴赫:是的,人类面临的难题必须靠AGI解决。AI本质是通过更优的信息处理来破解问题。就像互联网曾被传统媒体视为威胁,但最终社会学会了驾驭社交媒体。技术并没有带来我们想象中大范围的贫困,也没加剧经济不平等,这与主流论调相反,技术实际缓解了社会不平等。AI会带来恶意使用等问题,但我认为破解之道依然是更先进的 AI。只要建设者比破坏者多,长远来看“黑暗势力”就会被打败。历史向来如此。
模拟假说
徐道辉:我想请教一个你未曾公开讨论过的问题,你对"模拟假说"(simulation question)有何看法?
约夏·巴赫:就是“我们是不是活在一个模拟世界”那个问题吗?我觉得概率很低。当前宇宙的样貌完全符合基础物理规律。要让我相信这是模拟世界,除非真的出现彻底违背物理逻辑的现象。比如中国气功师声称能心灵感应或隔空影响他人,这些或许需要重新解释神经科学,但还不足以推翻现有物理框架。
徐道辉:不过假设未来的 AGI 能创造一个包含自我意识的模拟世界,里头的人根本不知道自己是“人工”的呢?
约夏·巴赫:有可能。我们或许正活在某个AGI的记忆里。
徐道辉:这类模拟世界完全可以拥有与现实无异的物理规则。
约夏·巴赫:要是 AI 只是根据现有的数据去重建自己的起源,比如扫描所有社交媒体资料,然后模拟那些让它诞生的人类思维状态,它也不一定非要追求多么逼真的物理学啊。它只要能精准还原你此时此刻的精神状态——连基础物理测量都能成为记忆诱因——这看起来并非难事。
徐道辉:对。
约夏·巴赫:或许此刻正有一个AGI在观看这篇文章,试图重构你我的意识状态,而眼前的我们,可能只是它模拟中的存在。
徐道辉:你这说的就是理论物理里常提的“玻尔兹曼大脑”(Boltzmann brain)悖论,你听说过吗?
约夏·巴赫:玻尔兹曼大脑只在一个“时间帧”里出现,然后就崩溃了。而我们需要解释的,却是连贯的记忆状态序列。这些记忆要在单时间帧内生成,虽然理论上可能,但概率低得荒谬。玻尔兹曼大脑极其罕见,物质随机碰巧形成了一个瞬时的“自我体验体”,概率是微乎其微。而模拟假说则不同,它意味着有某种持续的过程,让我们能思考、能感知。既然意识本来就是大脑对自己的模拟,那被其他系统同样“高保真”地模拟,也就没啥不合理的。
徐道辉:假设未来出现拥有无限能源的超级人工智能 ,它们会不会创造包含感知主体的模拟世界?
约夏·巴赫:为什么不会?每晚我们的大脑其实都在干类似的事,梦境就是一个自洽的模拟世界,里面有各种能交流的感知存在。
徐道辉:所以您觉得这完全合理?
约夏·巴赫:合理,不过我不认为我们现在所处的物理宇宙像个“被模拟”出来的产物,它更像是自然涌现的。它跟《我的世界》那种明显能看出人工痕迹的情形不一样。而比如已故的艾德·什维特金(Ed Shvetkin)曾与我深谈,他说宇宙参数的精妙绝非偶然。他坚信我们的物理宇宙或许只是母宇宙某个服务器农场里的运算结果。
整合信息论与意识上传
徐道辉:是时候谈谈您的公司Liquid AI了。能简要介绍下它的核心创新吗?
约夏·巴赫:Liquid AI是由MIT博士后团队创立的,核心源于拉明·哈萨尼(Ramin Hassani)的博士研究,他发现用微分方程来描述函数几何的“液态网络”,比传统神经网络有更高的计算密度。虽然数学更复杂,但总算力需求反而更低。
徐道辉:就像用更精简的硬件就能实现同样功能?
约夏·巴赫:正是。同样的损失函数和数据,能收敛到功能等价的模型。现在团队主要在做工程化:构建高效微调管道,寻找商业应用场景。
徐道辉:您具体负责什么?您的头衔是AI战略师这类角色,还是亲自参与编程?
约夏·巴赫:可惜我现在已经不写代码了,虽然有点怀念。我主要是研究 AI 行业大局,制定公司战略,这跟直接搞机器学习研发不太一样。
徐道辉:如果您那个研究意识的机构成立,会全职投入吗?
约夏·巴赫:我需要平衡一下精力。现在这个方向的研究者实在太少。令人费解的是,机器意识研究竟如此冷门。尽管短期内难成主流,但应有足够研究者认同其必要性。毕竟,理解意识机制可通过计算机实现,计算主义是认知世界的正确路径。
徐道辉:我在密歇根州立大学任职时,曾考虑引进威斯康星大学的一位教授,好像叫托诺尼(Tononi)?您是否了解他提出的意识机制化定义方案?
约夏·巴赫:他试图构建功能主义(functionalism)的替代方案。功能主义认为,一个对象可以用它的行为来定义,信息的本质是跟其他信息之间的关联性。这观点其实相当深刻,直指我们认知现实的方式。
假设有个“假水分子”,它的所有属性——包括把它拆解成模拟的氢氧原子,都和真正的水分子没区别。那我们还能说这俩有什么本质差异吗?所有水分子本质都是可观测属性的规律化表达,人类认知的客体皆基于此原则构建坚称两个观测属性完全相同的对象存在"本质差异",从认识论角度讲挺荒唐。要定义一个新对象类别,就必须提出能导致不同行为的特征变量,而托诺尼觉得“意识”正是这么个特殊案例。
我觉得托诺尼是个披着神经科学家外衣的深度哲学家。他提出的整合信息理论(IIT)声称发现了六千年来无人洞察的真理。但正因如此,六千年来无人提出的理论反而更可能是谬误。
另一个问题是他无法很好地表达这个理论。我一直没看见一个能让我满意的 IIT 数学形式化。相反,IIT的形式化似乎是为迎合有缺陷的学术领域需求而设计的。他创造了所谓的"公理"章节,实际上只是对意识定义的文字描述,并非数学意义上的公理。他所谓的"数学化",好像是为了符合高等数学学术圈里“必须有希腊字母”的需求,他就引入了Φ系数(phi)描述信息整合度,但是这个标量值到底意味着什么?高Φ值如何对应意识的不同元素?都没说清楚。不过比起其他"拍脑袋"的意识理论,至少他明确列出了待解释的特征集。虽然"统一性"等概念,还是过度简化了意识体验的长尾多样性。
徐道辉:当时我读过这些论文但并不完全信服,不过得承认我并未深入钻研。
约夏·巴赫:我对φ值的理解是某种互信息度量,就是将认知系统切片,分析各子系统间的信息关联度。但学界一直质疑φ的计算方式,他们只好不断更新算法。我强烈感觉φ值更像是理论推销工具,而非理论核心,它更像是理论核心概念尚未清晰表达前的临时替代品。
它能预测也无非是:新皮层信息整合度高,所以有意识;小脑整合度低,所以没意识。这根本不算实证科学意义上的预测。更荒诞的是斯科特·阿伦森指出的:通过优化,连“异或门”都能获得高 φ 值。托诺尼居然承认这玩意儿可能有意识。
徐道辉:对,这例子我记得。
约夏·巴赫:最根本的矛盾在于:他声称数字计算机只要架构正确(比如仿生计算机)就能有意识,但数字计算机需以特定方式组织架构以获得极高Φ值。若构建完全符合要求的生物形态计算机,即便基于数字电子技术与比特运算,当其满足所有必要属性时仍可能具备意识。而冯·诺依曼架构计算机(von Neumann computer)永远无法具备意识,因其线性架构无法产生必要Φ值。
另一方面,他并未否认丘奇-图灵论题(Church Turing thesis),即承认任何数字计算机都可在资源充足时被其他数字计算机模拟。这就导致矛盾出现:假设那台“仿生计算机”能宣称“我有现象体验”,可在物理层面,它也不过是比特流在逻辑门间的流动。如果在冯·诺依曼机器上完全模拟这过程,比特流一模一样,却说自己没有意识。这就说明前者也不是真的有意识,只是在“撒谎”。换言之,输出不是“意识”引起的,而是纯物理过程的必然结果。这就把理论推向了“副现象论”的困境。
徐道辉:最后来个哲学问题吧。假设《星际迷航》的传送器真实运作:先扫描并销毁你的身体,再将数据传至伦敦重组副本。这个"你"会在伦敦开会、生活,最后或许还能传送回来。你会犹豫使用这种装置吗?
约夏·巴赫:我曾坚信这种传送等于谋杀原版、复活克隆体。但现在我意识到:其实所谓“同一性”不过是记忆衔接产生的幻觉。我们所谓的“状态连续”本来就是大脑对世界进行粗糙模拟时产生的一种错觉。就像电子只是宇宙中"电子形状的空洞"的瞬时显现,加法运算也不具备实体同一性。无非就是当数字相同时,“+”这个运算就反复出现。
“我”也是一个复杂的运算符:只要宇宙某处满足"约夏条件"(记忆、特质、行为的时空整合),我就会作为体验主体显现。这种条件极难复现,但凡确实复现了,那儿就是“我”所在。所以现在我认为:使用这种传送器根本没啥好犹豫的。
徐道辉:从唯物主义的角度来看,这个回答确实非常合乎逻辑。其实我也在这个问题上反复摇摆,正因如此,我才会不时重提这个话题。
约夏·巴赫:是的,但我们要明白,这种不安感其实源于我们认知现实的方式,而非现实本身。你看,我们总习惯给事物强加一条时间线——这就是我们构建"身份认同"的方式。这么做的实际好处很明显:比如我们可以进行信用评估,为现在的决定预设未来回报;可以复盘过去的行为来指导当下;还能追踪其他具有演化历程的实体。
但问题在于,我们把这些"演化中的对象"当成具有内在连续性的同一事物,而实际上它们不过是宇宙这个系统在不同版本更新时产生的不同实例。这种“把东西视为同一个”的思维方式,说到底只是种不够精确的简化模型。
来源:东窗史谈一点号