人工智能的极限

360影视 2025-01-06 10:46 3

摘要:大家好,今天我想聊聊人工智能(AI),特别是其中一个新领域——专家系统。这东西现在媒体炒得火热,从 Nova 到 Dan Rather 秀,再到晚间新闻,到处都是。不知各位对它了解多少,但总的来说,计算机能不能真的有智能,这个问题确实引人入胜。巧的是,我在这方

Hubert Dreyfus 在 DePauw 大学的讲座 (1985)

大家好,今天我想聊聊人工智能(AI),特别是其中一个新领域——专家系统。这东西现在媒体炒得火热,从 Nova 到 Dan Rather 秀,再到晚间新闻,到处都是。不知各位对它了解多少,但总的来说,计算机能不能真的有智能,这个问题确实引人入胜。巧的是,我在这方面研究很久了。

我当年在麻省理工教书,学生很多都来自机器人实验室(现在叫人工智能实验室)。他们告诉我,哲学家们绞尽脑汁想搞明白的那些东西,比如感知、理解、行动,他们在给计算机编程的过程中,已经或即将解决了。那是 1963 年的事了,所以我一直关注这个领域。今年是 AI 诞生 30 周年(具体哪天诞生的不好说,大概 1955 年吧),那时大家开始意识到,计算机不只是个计算器。

计算机可以用来表示现实世界中的事物及其特征,然后用逻辑规则把这些事物或特征联系起来,推导出可能发生或即将发生的事情,这样就能解决问题,玩游戏,做一些看起来很智能的事情。这是 30 年前的事了。最近,《人工智能》期刊要出一期 30 周年纪念刊,回顾一下这个领域的发展。他们邀请了很多 AI 界的大佬,比如麻省理工的 Marvin Minsky、卡内基梅隆的 Alan Newell 和 Herb Simon,还有斯坦福的 John McCarthy。奇怪的是,他们也邀请了我。

我到现在也没想明白这是什么意思。是因为他们现在特别自信,觉得我说什么都无所谓,反正他们已经很成功了?还是他们现在特别没底,遇到瓶颈了,所以病急乱投医,想起哲学来了?——人们在事情搞砸了又不知道为什么的时候,总是会求助于哲学。所以我回顾了 AI 这 30 年的发展,突然意识到,AI 领域正在发生的,完美地诠释了一位科学哲学家 Lakatos(你们可能没听过他,他名气不大)的理论——“退化研究项目”。我觉得 AI 就是个典型的例子。

什么是“退化研究项目”?

就是说,在某个领域,有人提出了一个好想法,然后去实践,在最初的领域里效果很好,看起来可以扩展到其他领域,甚至真的在其他领域也开始有效。但是后来就出问题了,碰到一些意料之外、谁也解决不了的难题。慢慢地,人们就对这个技术失去信心,纷纷离开这个领域,拿着能用的东西去赚钱,或者干脆改行,或者换个方法做同样的事。

我觉得现在 AI 领域正在经历这些。我接下来会从我个人的角度,讲讲 AI 的历史,让大家知道,不是所有人都觉得 AI 形势一片大好。就在同一期杂志上,我把它叫做“退化研究项目”,而 AI 的创始人之一 Alan Newell 却说 AI 正在呈指数级发展。这种观点的巨大差异很耐人寻味。其实,不光我一个人觉得 AI 进展缓慢。耶鲁的 Roger Schenck 就说,他们卡住了,连问题是什么、博士论文该怎么写都不知道。这个领域现在乱得很。只有那些媒体记者,每隔几周就写文章说计算机马上就要有智能了,很快就会把我们当宠物了——只有他们才坚信 AI 正在飞速发展。

AI 的早期发展和“物理符号系统假设”

AI 的开端其实一片光明。Newell 和 Simon 在 1955 年左右提出一个想法:计算机不只是计算工具。他们认为,计算机可以被做成他们所谓的“物理符号系统”。“物理符号系统”里有一些东西——在计算机里就是 0 和 1——可以代表现实世界中的事物。也就是说,你可以用计算机语言对世界进行符号化的表述或描述。然后,你可以用规则来操作这个符号系统,这样就可以用计算机来模拟智能的一些重要方面。这就是后来所谓的“心灵信息处理模型”,Newell 和 Simon 称之为“物理符号系统假设”。

这个假设认为,人和数字计算机都是一种叫做“物理符号系统”的机器的两种实例,这种机器通过用逻辑规则操纵符号来产生智能。照这么说,你有没有身体和大脑,在什么样的文化里长大,都无关紧要了。这个想法很大胆,也很惊人。当然,哲学家们也思考过类似的问题。亚里士多德和柏拉图就认为,智能和身体不一样,甚至觉得身体只会添乱,干扰智能。笛卡尔也这么认为,他觉得文化和成长环境跟智能也没关系。所以,出现“我们只是物理符号系统”这种说法,我觉得是西方哲学传统(或者说其中一个分支)的自然结果。说得高大上一点,我们是“理性动物”;说得接地气一点,我们还是“理性动物”,只不过动物部分是动物部分,理性部分是理性部分,而理性部分的工作就是计算。从霍布斯到麻省理工,这个想法一直没变,只不过在麻省理工变成了用比特进行计算而已。

早期 AI 发展得确实不错。先是 Newell 和 Simon 所在的兰德公司,然后是他们后来去的卡内基梅隆,再到我当时所在的麻省理工,都开发了很多成功的 AI 程序。

SHRDLU 和 AI 的困境

1970 年左右,出现了一个很有名的程序,叫 SHRDLU,你们可能听说过。这个程序经常被当成 AI 的最佳案例来宣传,它也确实很厉害,可能是 AI 做到过的最厉害的事了。它模拟了一个积木世界,你可以在它的屏幕上看到积木,然后让它操作积木。比如,你可以让它“把红色积木放在绿色积木上面”。为了做到这一点,计算机必须理解你输入的句子。假设红色积木上面还有一个蓝色积木,它就得先把蓝色积木拿下来,再拿起红色积木,放到绿色积木上面,还得找个地方放下蓝色积木。它还能回答各种问题,比如你问它“你为什么要移动蓝色积木?”,它会回答“为了拿到红色积木”。你还可以问它“你为什么要拿红色积木?”,你甚至不用说“红色积木”,只用说“它”,它也能明白,然后回答“为了把它放在绿色积木上面”。你还可以问“你为什么要这样做?”,这很难,你们可能意识不到这有多难。

提问者:那是什么?

Dreyfus:如果机器能搞明白“那”指的是什么,它就会回答“因为你让我这么做”。所以,SHRDLU 确实很牛。当然,还有其他很厉害的程序,比如 Evans 做的能解决类似智商测试中那种简单类比问题的程序(大概十岁小孩的水平),还有 Waltz 做的场景分析程序。他们都拿到了博士学位,发表了论文,还成立了专业协会,出版了期刊,涌现出一批 AI 界的英雄人物。当时的 AI 大佬 Minsky 在 1967 年就预言,在一代人的时间里,创造人工智能的问题将基本得到解决。然后,就在我开始关注 AI 的时候,这个领域突然遇到了意想不到的困难。

据我所知,麻烦是从他们试图让计算机理解简单的儿童故事开始的,就是那种四岁小孩都能听懂的故事。我书里经常举一个例子:他们想让计算机理解故事,就是说,希望计算机能回答一个四岁小孩能回答的关于故事的问题。故事是这样的:珍妮特和简——那天是杰克的生日——打算给他买个礼物。“我们给他买个风筝吧”,珍妮特说。“不行”,简说,“他已经有一个了,他会让你退回去的”。这个故事听起来很简单,但要注意,故事里没说礼物是给过生日的杰克的。(我可能把名字记错了,因为我这是现编的。)故事里没说礼物是给杰克的,也没说他们要去参加杰克的生日派对,要把礼物送给他。要让计算机理解这些,你得给它建立一个“生日派对”的框架,告诉它生日派对上通常会发生什么。这或许能做到,但能不能对所有事情都建立框架,就是个大问题了。我们再来看另一个问题:他们想让计算机回答“他会让你退回哪个风筝?”这个问题。显然,答案应该是“新的风筝”。当然,在某些文化里,收到新东西的时候可以把旧的退回去。但你得了解我们这里的文化,这些东西在“生日派对”的故事或脚本里是没有的。比如,你已经有了某个东西,又收到一个一样的,你肯定不想要两个,所以得处理掉一个。处理的办法通常是把新的退回去。计算机不知道这些。当然,你可以把这些信息输进去,但这只是冰山一角。

再往下分析,他们说,你得给计算机设定一条规则:如果你已经有了一样东西,再收到一个一样的,你就不会想要了。但真是这样吗?美元、玻璃球、饼干也适用这条规则吗?恐怕不是。这条规则应该改成:大多数情况下,其他条件相同的话,如果你已经有了一样东西,再收到一个一样的,你就不会想要了。但“其他条件相同”是什么意思?怎么跟计算机解释?你得是个人才能理解。这很复杂。比如饼干,如果直径有一英尺,一块就够了。但如果你是个饼干怪兽,一块肯定不够。你可以不断地添加例外,任何小孩都能明白这些。但怎么让计算机明白,就没人知道了。大家都知道,你需要的是一套“常识”理论,就是说,你得让计算机知道,做个人是怎么回事。因为计算机来到这个世界,比火星人还陌生,它完全不知道有身体、有感觉、会饿、会在某种文化中长大、想要一个风筝但不想要两个是什么样的。我甚至不怀疑,它不知道你不会想要两个一模一样的风筝。而且,你收到另一个风筝的时候,会生气、不高兴、开心还是愤怒,取决于很多因素,计算机都不知道。它需要一套情绪理论,关于各种情绪的理论。它得知道在什么情况下你会嫉妒,嫉妒到什么程度,疲惫的时候是更嫉妒还是不嫉妒。我们人类不用知道这些理论,因为我们自己就是。但得有一套关于“我们是什么”的理论,好让计算机建立起对“我们是什么”的表述,好让它“知道”。这看起来很难。Minsky 的态度在 15 年里发生了 180 度大转弯。1980 年,他告诉一个记者,“人工智能问题是人类从事过的最难的科学研究之一”。有人告诉我,在一个系列讲座里,我先讲,他前一天讲的,他说现在觉得 300 年内能解决这个问题。这可不是什么指数级进步,这是指数级倒退。这就是“退化研究项目”的典型表现。自从 15 年前,大概 1970 年左右,常识问题出现以来,AI 在这方面没有任何进展。

一年前,《科学美国人》上有一篇 David Waltz(我刚才提到过他)写的关于 AI 的文章,与其说是科学,不如说是怀旧。他提到的程序都是十多年前的,这个领域真是奇怪。为什么《科学美国人》会刊登这样的文章,也说明了这个领域对媒体有种奇怪的吸引力。但你读了这篇文章,也搞不明白这个领域到底在干什么。Waltz 花了半篇文章讲 SHRDLU 的故事,那都是 1969 年的事了,然后又讲了他自己 1970 年的程序等等。所以我觉得,他们在常识问题上,跟 15 年前相比,没有任何进步。而且,现在这个领域里很多人也同意我的看法。他们以前很讨厌我,我觉得他们是骗子。现在大家关系缓和多了,都承认常识问题很难,只是我认为他们永远解决不了,而他们觉得能解决。但我认为他们至少诚实地承认了这个问题的难度。他们得承认,这个问题可能太难了。我认为,这甚至不是个常识问题。就算我们知道所有关于情绪、风筝等等的知识,他们只需要把我们知道的提取出来输入到计算机里,这就已经够难的了。但我认为我们自己都不知道这些知识。我们自己就是这些知识。我们不知道什么情绪理论,不知道什么时候该嫉妒。我们只是会嫉妒。我们不知道在这个文化里,跟人说话应该保持多远距离。我们只是根据约定俗成的习惯这样做的。而且,很难说这其中有什么规则。就算有,也肯定是那种“其他条件相同”的规则。比如,“如果没有电钻噪音,他们也没有感冒,就保持这么近的距离”。所以,现在 AI 的前景不妙。

图像、原型和类比问题

还有其他问题。事实证明,人们思考的时候会用到图像。你可以给他们看两幅图,就像能力倾向测试里的那种,问他们是不是一样的。根据其中一幅图旋转的角度,人们判断它们是否相同所需的时间也不一样。斯坦福一个心理学家证明,这个时间是固定的,也就是说,旋转的角度越大,所需时间越长。这是严格的线性关系。人们旋转图像的速度是固定的。计算机做不到这一点,因为它比较的不是图像,而是描述。计算机没有图像。人们研究了很久,想弄明白,如果我们的大脑是“物理符号系统”,怎么会产生这种错觉,让我们觉得我们在以恒定的速度旋转图像。但如果我们是“物理符号系统”,就解释不了这个现象。所以,这是个打击。然后又出现了“原型”理论,又是一个打击。还是伯克利的 Eleanor Rosch 提出了这个理论。她以前是学哲学的,后来成了心理学教授,研究过维特根斯坦。维特根斯坦说,我们认东西不是靠定义。你当然可以把狗定义成“四条腿、会叫、有尾巴、会摇尾巴”,然后去找符合定义的东西。但我们可能是通过见过很多典型的狗,然后把看到的狗跟记忆中的典型案例比较,来识别狗的。我们记忆中的可能更像是图像。Rosch 就是这么想的,她还做了实验,证明我们确实有“原型”。这对计算机来说又是当头一棒,因为它们不用具体案例,也不能通过相似性来判断。相似性必须转化成具有一定数量的共同特征。但对我们人类(甚至可能对狗也一样)来说,相似性就是一种很基本的东西,就是跟另一个东西像不像。这在大脑里是怎么实现的,如果大家感兴趣,我们可以讨论。

所以,所有这些问题,对计算机来说都是未解之谜。相似性问题有时也叫类比问题,这个问题大家都知道解决不了。1981 年的《人工智能手册》里就写着:“很多重要的思维过程,比如人脸识别和类比推理,都很难用计算机实现。我们还没有足够的计算机制来处理它们”。所以,笛卡尔以来的那个哲学观点——我们对世界有心理表征,这种表征由很多基本特征构成,这些特征反映了世界的特征,特征之间的关系也反映了世界中特征之间的关系,我们通过操纵这些表征来思考——这个观点在 AI 领域可能已经走到头了。但在《芝麻街》里还活着。我前两天刚看过一集,一个小孩子脑子里想着一个房子,说了一些词,另一个小孩子脑子里就出现了类似的房子。这纯粹是笛卡尔的观点,现在被当成理所当然的东西教给五岁的孩子。但这可能根本不是语言和思维的工作方式。

除了很多哲学上的反对意见,AI 的“芯片”也快烧没了,“符号表征”那一套玩不转了。但有意思的是,就在这个时候,你以为大家会说,“算了,AI,都努力这么久了,就像炼金术、扑腾着翅膀想飞起来一样,都是白费力气,我们还是换个思路吧。” 但 AI 在三年前又焕发了第二春,因为人们开始用 AI 的方法来构建所谓的“专家系统”。

专家系统和“第五代计算机”

这些专家系统还真管用。它们之所以管用,是因为人们想到,就像 SHRDLU 在“微世界”里取得成功一样——这些“微世界”跟人类生活的其他方面没有联系。SHRDLU 的世界是理想的积木世界,跟人的情感、身体等等都没有联系。游戏也一样,计算机在下棋和跳棋上很厉害。想想看,这也是个“微世界”。下棋的时候,只有棋子的颜色和位置重要。棋子多重、有没有灰尘、冷不热、在不在格子的正中央、是皇后还是国王、你对父母、国王皇后有什么感觉,这些都无关紧要。所以,计算机在这些领域里很厉害。所以,有人——尤其是斯坦福的 Edward Feigenbaum——想到,别管通用的 AI 了,我们把计算机用在那些跟常识、图像、原型、类比无关的领域。于是,他们就做了“专家系统”。

我简单介绍几个。SHRDLU 和那些“微世界”程序的后代,就是 MYCIN、PROSPECTOR 和 DENDRAL,这些都是著名的专家系统,你们可能在《商业周刊》、《纽约时报》、《新闻周刊》上看到过。比如《新闻周刊》有个标题,“日美竞相研发新一代几乎可以思考的机器”,这就是所谓的“第五代计算机”。这些计算机应该是有专家系统,或者至少有类似的智能。

我解释一下这几个程序。MYCIN 会获取验血结果,比如红细胞、白细胞、血糖等等指标,然后根据大量的规则(这些规则是从医生那里总结的),诊断出病人得了哪种血液传染病(当然,诊断范围比较窄)。它诊断得还挺准,还能估计自己诊断的准确率。它还能跟药物系统连起来,开药方。已经证明,它比普通医生强,但比不上顶尖的血液病专家。PROSPECTOR,这个程序在 Dan Rather 的新闻里被吹得神乎其神。我到处揭穿这些东西,一方面是因为我觉得不应该骗人,另一方面也是为了让大家以后别被骗。以后在电视上、Nova 节目上、《纽约时报》上看到计算机做了什么我说的它做不到的事,别轻易相信。这些报道跟现实完全脱节。PROSPECTOR 会分析某个地区的地质构造报告,然后根据大量地质学家总结的规则,判断那里有没有某种矿石。有一次,为了测试它,人们给它输入了某个地区的地质数据,他们知道那里有钼矿,结果它还真在托尔曼山上找到了。它准确地预测了那里有钼矿。其实大家都知道那里有钼矿,也知道埋得太深没法开采,但这不重要。到了 Dan Rather 的新闻里,就变成了华盛顿需要钼矿,然后把需求输入计算机,计算机就找到了托尔曼山。然后画面上出现一架直升机飞往托尔曼山,然后开始挖矿,挖出了钼矿。到了《纽约时报》,就变成了“发现了价值百万美元的矿藏”。如果真能挖出来,或许值这么多,但实际上埋得太深,品位也太低。不过,它确实找到了钼矿。我不是说它没用。这些专家系统确实有用,只是被夸大了。DENDRAL 是用来分析光谱图的。它之所以有名,是因为它是第一个专家系统,是 Feigenbaum 做的。它比大多数化学家都厉害。那么,这些“第五代计算机”有什么呢?他们发现,如果你把专家知道的知识和所谓的“启发式规则”(就是专家多年实践总结出来的经验法则)输入计算机,就能让计算机表现得非常出色。这有什么奇怪的?Feigenbaum 说,“专业人士的思考几乎都是推理”,如果你同意这个观点,那么你就会觉得,既然计算机不光能计算还能推理,那它当然应该跟专家一样厉害。

苏格拉底、柏拉图和知识工程师

这个观点并不新鲜,我们已经这样想了 2000 多年了。从柏拉图就开始这样想了。你们谁在柏拉图的课上读过《游叙弗伦》?《游叙弗伦》是柏拉图早期的一篇对话录,讲的是苏格拉底,西方哲学的奠基人之一。苏格拉底到处问各行各业的专家,问他们各自领域的定义、规则、原则。他问游叙弗伦(一个神学家):“我想知道什么是虔诚,好用来判断你和别人的行为”。他想从游叙弗伦那里得到一个识别虔诚的启发式规则。游叙弗伦是识别虔诚方面的专家,如果苏格拉底能从他那里得到规则,那谁都能识别虔诚了。但问题是,游叙弗伦只会举例子,说人们做了什么事,宙斯和众神做了什么事,大家都觉得是虔诚的。苏格拉底不要例子,他要的是游叙弗伦用来判断什么是虔诚的规则。游叙弗伦就是给不出规则。最后,苏格拉底放弃了,就像他在所有对话录里做的那样。苏格拉底问工匠、诗人,甚至政治家,都碰到了同样的问题。连政治家都不知道怎么解释他们的判断。所以,苏格拉底只能得出结论,他们什么都不知道。既然他们都不知道,苏格拉底自己也不知道什么原则,所以他也认为自己什么都不知道。这对哲学来说不是个好开端。但柏拉图解决了这个问题。柏拉图说,专家曾经知道规则,只是后来忘了。这些规则还在专家的脑子里起作用,还在帮助专家做事。哲学家的作用就是帮助人们回忆起他们行动的原则。

现在的知识工程师也这么说。他们想从专家那里获得规则,他们认为专家把规则存储在他们“大脑计算机”的某个地方,已经编译好了,可以自动运行。知识工程师面临的问题跟苏格拉底一样,就是怎么让专家回忆起这些规则。Feigenbaum 说得简单明了:“我们学系鞋带的时候,得使劲想每个步骤。系过无数次鞋带之后,用计算机术语来说,这些知识已经被‘编译’了。我们没办法意识到这些规则了”,所以你没办法告诉我系鞋带的规则是什么。但规则还在那儿,在你系鞋带的时候起作用,或者说让你系鞋带。不然你怎么会系鞋带呢?你一开始学系鞋带的时候肯定得按规则来,现在肯定也是按规则来的。但从苏格拉底那时候开始,到今天,你问专家规则是什么,他们都说不出来。Feigenbaum 说,“专家的知识定义不清、不完整。专家不知道自己知道什么”。Feigenbaum 还有句名言,说你问专家规则的时候,会得到“游叙弗伦式”的回答。专家会说,“这个规则是对的。但你要是见多识广,看过足够多的病人、岩石、芯片设计(具体是什么取决于他们的专业),就会发现这个规则并不总是对的”。专家的意思是,这只是个“其他条件相同”的规则,甚至连这都算不上。更糟糕的是,Feigenbaum 很不爽地说,“这样一来,知识就变成了成千上万个特殊情况”。那就完蛋了,原则在哪儿?还有其他迹象表明 AI 遇到了麻烦。我刚才暗示过,MYCIN 的水平跟普通医生差不多,但比不上顶尖的血液病专家,虽然它运行的是从专家那里提取的规则,速度又快,准确率又高,还能记住所有信息,从不忘记。DENDRAL 也一样,它的水平大概只有专家的 75%。现在看来,情况很不妙。问题是,为什么会这样?

专业技能的五个阶段

再举个例子——跳棋。跳棋是第一个被用来编程的游戏。1947 年,在 AI 出现之前,IBM 的 Arthur Samuel 就想从跳棋高手那里提取规则,写一个跳棋程序。有意思的是,所有了解这个领域的人都认为,Samuel 的程序达到了大师级水平。如果真是这样,那我的理论就站不住脚了,因为我的理论认为,任何专家系统都不可能达到它所模仿的专家的水平。Feigenbaum 说,“到 1961 年,Samuel 的程序已经能下大师级跳棋了,而且每下一盘棋都能学习提高”。连我刚才提到的那本关于类比的《人工智能手册》都说(我觉得它是认真的),“现在的程序已经能下大师级跳棋了”。我自己以前也写过,说世界上只有一个人能赢 Samuel 的程序。因为我当时觉得只有常识才是问题,我觉得专家系统是可行的。结果,就在几个月前,Samuel 在斯坦福接受采访(他 80 岁了,退休了),他说,他的程序“能赢所有业余棋手,跟高手也能你来我往几个回合”。也就这样了,大概 75% 的水平,离世界冠军还差得远。他还说,他感觉快到收益递减的点了,因为他已经跟专家学了 35 年的规则了。他还说,“专家对自己用的规则也说不清楚”。

所有领域都是这样。所以我觉得,我们应该质疑“专家”这个概念。我们通常认为,“专家”是看了很多例子,慢慢总结出越来越复杂的规则,然后把规则内化到潜意识里,就能处理各种情况了。也许不是这样的。

于是,我们研究了什么是专业技能。我们思考了怎么学开车,我哥哥(他是个很厉害的棋手)思考了怎么学下棋。最后,我们对棋手做了心理学实验,发现人们获得专业技能的过程分为五个阶段,而且这个过程跟从苏格拉底到柏拉图,再到 Samuels 和 Feigenbaum 等人的说法正好相反。为了有更多时间讨论,我简单介绍一下这五个阶段。

新手: 新手阶段的学习方式,正是哲学家们一直关注的,因为这是人们对自己的技能最有反思的阶段,也是人们在技能失效,“退回”新手状态时经常经历的阶段。新手学新技能的时候,会学习一些跟上下文无关的特征(不需要任何经验就能识别),以及处理这些特征的规则。我会一直用开车和下棋做例子。拿开车来说,如果是手动挡,你会学到“速度表指针到 20 的时候,从一档换到二档”。这不需要任何经验,计算机也能做到。下棋的话,你会学到“皇后值 9 分,车值 5 分”,以及“能换分就换”。所以,不管什么情况,能用皇后换车就换。当然,这样下棋赢不了。这些规则不考虑上下文。交通规则也不考虑……你还会学到“跟前车保持多少距离”之类的。这些都很简单,但能让你入门。就像自行车上的辅助轮,你不会想一直用辅助轮,就像你不会想一直骑四轮车。关键是,想精通某个领域,就得先入门。你入了门,积累了经验,就能进入下一个阶段——“高级新手”。高级新手: 在这个阶段,你不仅能识别特征,还能识别我和我哥哥所谓的“方面”。特征是那些跟上下文无关的东西,比如“速度表指针到 20”,“皇后值 9 分”。“方面”是需要经验才能识别的东西。你开了段时间车,就知道什么时候发动机声音不对劲,该换挡了。这不是光靠特征就能判断的。你得在各种情况下——上坡下坡、载重不载重、下雨天晴天——听过很多发动机的声音,才能识别出来。当发动机的声音跟记忆中某个典型的声音相似的时候,你就知道该换挡了。你也会判断错,然后吸取教训。下棋也是一样,你会学着识别“兵型结构不平衡”、“王翼薄弱”之类的,以及怎么避免或利用这些情况。这些东西,只有有一定水平的棋手才能看出来。我看棋盘的时候就看不出来,但我肯定能听出来发动机什么时候声音不对,因为我会开车。胜任: 到了“胜任”阶段,你会发现,你没办法记住所有规则和“方面”。新手司机就是这样,你跟他们说话都费劲,因为他们满脑子都是什么时候换挡、跟车多远之类的。这样不行。所以,他们得学会简化,只关注最重要的规则和特征。开车的时候,你得根据情况选择不同的策略。比如,你想快点到目的地,就会关注最短路线、有没有警车,不会管乘客舒不舒服、风景好不好。或者你想享受驾驶的乐趣,就会关注舒适度、风景,放松心情。你选择一个计划,然后只关注相关的因素。下棋也是一样,你想进攻王翼,就会牺牲后翼的一些兵。你不在乎,因为如果进攻成功,那些兵就无关紧要了。这个阶段很重要的一点是“投入”。前两个阶段,你就像计算机一样,没有“投入”。即使在“胜任”阶段,你的“投入”也不会影响你的行为,但你会不自觉地受到情绪的影响。在前两个阶段,你只是把规则应用到特征上;在“胜任”阶段,你只是把规则应用到“方面”上。在这个阶段,你得决定你的目标是什么,然后应用规则。但这时候,选择目标会让你投入情感,因为目标是你自己选的,结果会对你产生很大影响。你赶飞机,结果被开了罚单,没赶上,你会很难过。但如果你没被开罚单,刚好赶上了,你就会很高兴。下棋也一样,你决定进攻王翼,赢了,如果你像 Bobby Fischer 一样觉得“棋如人生”,你就会觉得赢棋是件大事。但如果你进攻失败,损失了很多你认为不重要的棋子,最后输了棋,你会觉得很难受。所有这些情绪记忆——根据你对目标的判断,哪些重要哪些不重要,以及由此带来的机会、威胁、风险、胜利、失败——都会存储在你的大脑里。如果你不总是理性地分析(有些人下棋就卡在这个阶段,总是理性分析,结果棋艺上不去),开车的时候也没时间理性分析,你就能进入下一个阶段——“精通”。精通: 到了“精通”阶段,你不用想就知道问题是什么。你会全身心投入,问题自然就明摆着了。比如开车,你从高速出口下匝道。如果只是“胜任”水平,你得想,“我赶时间,匝道倾斜 10 度,下雨,时速 40 英里,太快了,得减速到 20”。想完你就撞死了。所以,“胜任”水平的司机根本不敢上高速。但到了“精通”水平,你不用想就知道速度是不是太快了。下棋也一样,高手一眼就能看出问题在哪儿,是该进攻还是防守,该进攻或防守哪里。他不是想出来的,是棋盘告诉他的。当然,如果只是“精通”水平,你还是得想下一步怎么走。你知道速度太快了,但你得想是松油门、轻踩刹车还是猛踩刹车。想这些也很危险。但随着经验的积累,你最终会成为“专家”。专家: “专家”阶段是什么样的?你们经常会体验到。你开车的时候,突然感觉速度太快了,你的脚就会自动松油门、踩刹车。你可能一边开车一边聊哲学,甚至都没意识到你觉得自己速度太快了,你的脚就自动做出了反应。之所以会这样,是因为你积累了足够多的案例,现在遇到的情况跟你以前遇到过的某个情况相似,你调用了那段记忆,然后就做出了同样的反应。下棋也一样。大师级棋手几秒钟就能看出最佳走法,不是想出来的,是棋局自己跳到他脑子里的。大师们在比赛中思考,是为了验证这步棋有没有什么隐藏的陷阱,或者,如果是 Bobby Fischer 那种级别的,他会想一些别人想不到的棋,因为常规的最佳走法,对手也能想到。如果你能走出一个不是最佳但仍然不错的棋,就能赢。但最佳走法通常是很明显的。有人计算过,Herb Simon(就是我刚才说的那个持相反观点的人)认为,棋手至少记住了 5 万个棋局,才能做到这一点,因为他们不像是在计算,而像是在识别。

对“专家”的重新思考

我们找了一个棋手做实验。他年轻的时候拿过国际大师,后来去读了计算机科学的研究生。我们把他请到伯克利来做实验。他现在仍然是世界级的棋手。为了验证我们的理论,我们做了以下实验:我们的理论是,专家,所有领域的专家,都不是靠解决问题、计算、应用规则来做事的。专家只是根据过去的经验,做通常有效的事情。通常有效的事情就是有效的,就这么简单。那种认为专家是靠解决问题来做事的观点是错的。怎么验证呢?你可以干扰他的问题解决能力,看看他还能不能下棋。我们让 Julio Kaplan 数哔哔声。我们用了一台计算机(因为心理学实验都用计算机)。我们让计算机随机发出哔哔声,“哔”、“哔哔”、“哔哔哔”。他得快速地把哔哔声的次数加起来,一边数一边说,“3、5、7、8”。我们让他尽可能快地数,好占用他的问题解决能力。我们还让他一边数一边解棋局,还不让他放慢数数速度,看他是不是真的被占用了问题解决能力。结果他快疯了,根本解不出棋局,因为他忙着数数。然后我们让他跟另一个高手下快棋,每步 5 秒。湾区有很多高手。结果令人震惊。Julio 一边数数,一边下棋,速度一点都不慢,数到“13、17”,然后就走棋。另一个高手有时间思考,因为 Julio 走棋的时候,他可以思考。结果 Julio 赢了三盘,平了一盘,输了一盘,而且下的都是大师级的棋,完全没有时间思考。他只是识别棋局,然后凭感觉走棋。我觉得太不可思议了。我问我哥哥 Stuart,这怎么可能。他说,“想想看,就算你一边做加法,一边认人,也能认出所有朋友。你不用思考就能认出朋友。对棋手来说,棋局就像人脸一样熟悉,走法就像名字一样熟悉”。只不过,大师级棋手不像你我,他就像一个世界级的政客,认识两万人,还知道他们的名字、配偶的名字等等。他可以一边数数一边认人。所以,这并不神秘,只需要大量的经验积累,以及天赋——记住相关图像的能力。所以,结论是,新手像计算机一样推理、应用规则。但随着经验的积累,新手会变成专家,专家凭直觉就知道该怎么做,不用应用规则。你不能光靠反省来证明这一点。专家也可能是在潜意识里应用了复杂的规则,只不过我们意识不到。但至少,一旦你像我这样描述(我觉得我的描述是正确的,哲学史上从来没有人给出过正确的描述),那么,认为专家遵循潜意识规则的人,就有责任提供证据。而那些遵循规则的专家系统表现不佳,正说明了规则理论是错的。现在我们明白了,为什么苏格拉底和 Feigenbaum 问专家规则的时候,专家给不出规则,只能举例子。因为专家根本不用规则,他做的正是 Feigenbaum 担心的——识别成千上万的特殊情况。所以,专家系统永远也比不上专家。你问专家规则,专家只能回到新手状态,想起他当年在学校学的那些规则,然后告诉你他记得但已经不用的规则。你把这些规则输入计算机,计算机的速度快、准确率高,还能存储大量信息,所以比新手强。专家系统就像一个“专家级新手”,或者说“超级新手”。但无论你怎么做,也不可能让计算机获得专家那种通过成千上万个案例积累起来的经验。所以,以后听到 Feigenbaum 说“第五代计算机将拥有比人类更快、更深、更好的机器智能”,你就可以一笑置之了。这是典型的“苏格拉底式”思维,既不理性,也没有经验依据。如果有人说要搞个紧急项目,跟日本竞争,研发第五代计算机,你可以认为,他们是受到了“苏格拉底式”假设和个人野心的蒙蔽。我心目中的英雄,是游叙弗伦,那个只会举例子而不给规则的虔诚专家。他才是真正的先知。

新的方向:连接主义

那么我们应该怎么办呢?常识知识的问题似乎无解,符号表征那一套也行不通。但是不是说,数字计算机就永远不可能有智能呢?倒也不是。如果它能模拟人脑,那当然有可能有智能。但这又引出了新的问题:身体怎么办?情绪怎么办?也许情绪也只是神经元活动的一种模式。它们还能是什么呢?我也不知道,我还在思考这个问题。目前,还没人知道,如果你不用“物理符号系统”的方法,计算机还能做什么,因为这还是个新领域。其实有一些新的方向,比如连接主义。连接主义者认为,我们不需要用符号和规则来表示知识,可以用类似全息图的方式,或者用神经网络来表示知识。这样就可以处理相似性、类比等问题,而不用把它们分解成特征。

问答环节

提问者:我觉得你说的对,计算机永远不可能像人一样有智能。但会不会出现计算机自己的智能?最近有人说,计算机是活的……

Dreyfus:我不赞同。但我没有明确的答案。“另一种智能”这个概念可能根本说不通。我们知道,人有欲望、需求、目标,我们会想办法解决问题,会从经验中学习。现在你说,有些东西,它没有我们这样的问题,也没有我们这样的解决办法,它的学习方式跟我们也不一样,它有另一种智能。但这情况下,“智能”是什么意思?所以我觉得,这只是空谈。但我愿意考虑这种可能性。人们想让计算机像人一样有智能。想让它有另一种智能,肯定不能让它不像人一样有智能。那样只会让它更笨。但怎么让计算机拥有另一种智能呢?我不知道。

提问者:我觉得有两个方面。你和你哥哥的观点……

Dreyfus:我的观点是,要知道所有规则、所有例外情况、所有“其他条件相同”的情况太复杂了。但这没意思,因为他们会说,计算机速度很快,每秒能进行几百万次推理,你怎么知道它最终能不能做到?所以,我觉得更重要的在于,有没有一些领域,根本就没有什么底层原则,只有大量特殊情况,因为没有原则。这一点,哲学家们可能从来没想过。但我一说,你们就能明白。或许有很多规则,很复杂,需要很快的计算机,很长时间才能处理完。但想想国际象棋,很难说有什么原则能解释为什么某一步棋是最佳走法。可能只是因为下了很多棋,国际象棋界才逐渐形成了共识,觉得在某个情况下,某一步棋是最佳的,因为其他的走法都会出问题。“控制中心”、“控制节奏”、“出子”,这些原则并不能告诉你哪一步棋是最佳的。我哥哥告诉我,俄罗斯的国际象棋解说员不会说,“Botvinnik 或 Karpov 走了这步棋,是因为这些这些原则”。他们会说,“如果他走这步棋,对手就会走那步棋,然后他就得走这步棋,结果就变成了一个很难看的局面”。大家都知道那个局面很难看。我再举个我哥哥的例子。常识里,比较容易处理的部分是所谓的“常识物理学”。先不说嫉妒、人际距离、喜好之类的,就说你知道的东西掉地上会不会摔坏、会不会弹起来、什么东西会粘在一起、什么东西会刮花什么东西、怎么倒各种液体——热水、冷水、糖浆、蜂蜜等等。所有这些关于物理世界的知识。人工智能认为,既然我们都能熟练地应对物理世界,我们的大脑里肯定有一套“常识物理学”理论,肯定有一些解释这些现象的原则。你会觉得肯定有这些原则,因为毕竟有天体物理学,有一些解释行星和彗星运动的原则。但日常生活中,各种液体的性质、什么东西会刮花或粘住什么东西、什么东西会摔坏,这些现象背后真的有什么原则吗?你看小孩,他们会花很多时间玩木头、沙子、水,一玩就是几个小时,大人根本理解不了。玩沙子能让你了解液体和固体的性质。所以,我觉得小孩是在积累各种经验,关于刮、推、倒、泼等等。积累了足够多的经验,他们就能像我们一样,凭直觉使用日常物品。所以,真正的考验是,有没有一套包含很多规则的“常识物理学”,我们只需要足够快的计算机和足够聪明的程序员,就能把这些规则提取出来输入计算机;还是说,有些领域根本就没有什么原则,只有大量特殊情况,因为没有原则?我不知道,这是一个很重要的问题,我不知道怎么解决。

提问者:垂直、水平、交叉之类的概念在这个理论里起作用吗?

Dreyfus:不起作用。这些概念在这个理论里都不重要。重要的是两个波前相互干扰,产生共振能量峰值,相似度越高的地方,能量峰值就越高。所以,你可以用计算机,用卷积和相关之类的数学方法(这是我哥哥的领域),来建立一个类似全息图的表述,比如国际象棋的棋局。现在还不知道怎么做,但至少,用这种方法,而不是用描述的方法,就可以用计算机来模拟图像,模拟相似性识别,不用把相似性分解成特征。相似性?跟什么的相似性?就是整体的相似性。我和我哥哥觉得,这才是 AI 应该发展的方向。现在也有人在尝试,有一批年轻的研究者在做“分布式表征”,一种是全息的,一种是模拟大脑的简化模型——理想化的神经元和它们之间的连接,连接上还有权重。然后输入一个模式,让它达到平衡,训练这个神经网络。你也可以在数字计算机上模拟。这两种方法都属于“连接主义”。大家可以关注一下,《字节》杂志上偶尔会有这方面的文章。这些连接主义者,比如卡内基梅隆的 Hinton,圣地亚哥的 Rumelhart,还有他们的学生,都在做这方面的研究。而且确实有效。芬兰有个程序,你可以给它看 10 张人脸,每张脸 5 个不同角度的照片,一共 50 张照片,都存储在同一个全息图里。然后你再给它看其中一张脸,从一个新的角度拍的,它就能计算出这张脸跟存储的 50 张脸的相关性,然后认出这张脸。它知道这 5 张脸的名字。它能认出是哪张脸,不用分析面部特征,只要相似就行。我以前说过数字计算机永远不可能有智能(还好我后来没再说,不然就丢人了)。在我书的第一版里,我觉得,计算机用的是 0 和 1,是离散的特征,它们通过“与”、“或”之类的逻辑门组合起来,所以计算机本质上是逻辑机器,只能处理符号描述。所以我觉得它们不可能有智能。现在我得谨慎一点了。我的意思是,我觉得行不通的是“物理符号系统”那一套,是用数字计算机识别特征,然后用启发式规则来操作特征。我没说过数字计算机模拟大脑就不能有智能。事实上,我觉得,如果它跟大脑足够相似,就肯定会有智能。当然,这也有问题,比如身体怎么办,情绪怎么办?但也许情绪也只是神经元活动的一种模式。它们还能是什么呢?我也不知道,我还在思考这个问题。目前,还没人知道,如果你不用“物理符号系统”的方法,计算机还能做什么,因为这还是个新领域。

提问者:Jeff Hinton 肯定也算 AI 研究者,他就在做这个。你为什么不算 AI 研究者?

Dreyfus:这只是个定义问题。你可以说,这些都是 AI,“物理符号系统”只是 AI 的一个分支,一个退化的分支。但直到最近,它都被认为是 AI 的主流,而且 AI 这个名字的发明者 John McCarthy 仍然相信“物理符号系统”。所以很难说。但这只是个说法问题。我可以说我认同 AI,只是觉得其中一个分支(也就是传统 AI)行不通。那些连接主义者也说他们在做 AI,如果他们成功了,那就是 AI。所以,我可以说,我不是反对 AI,我只是反对用逻辑机器(推理引擎)来创造智能。

提问者:你的理论对教育有什么启示?

Dreyfus:你说的很对,但这对教育的启示,可能跟你说的不一样。我的理论确实说明,如果专家只能教规则,那他们就不是好老师。专家最好的教学方式是带徒弟。这大家都知道。比如,顶尖的物理学家、有机化学家,他们教入门课教不好,但他们带研究生很有一套。所以,或许应该有一些“专家级教师”,他们能找到最合适的特征和规则,让学生入门,虽然这些特征和规则不是专家用的。总得有人做这件事。然后是教练,他们能帮助学生识别那些典型的“方面”,告诉他们,“发动机发出这种声音的时候就该换挡了,别老看速度表”。教练帮助学生积累各种典型情况的经验,知道在什么情况下该怎么做。这很好。还有一点很重要,老师很重要的一点是,别让学生一直停留在规则阶段。学生积累了足够的经验,就应该超越规则。我上学那会儿,如果我答案对了,但说不出用的是什么规则,老师就会说,你不会。如果我刚开始学长除法,乱蒙蒙对了,说不出规则,那确实不会。但我如果已经练了几个月,总是能算对,也说不出规则,那老师还说我不会,就是错的。这是“苏格拉底式”的做法。“你不知道自己怎么做到的,就等于不会”。不。老师应该鼓励学生,说,“你终于开窍了!你自己都不知道怎么算的,我也不知道。继续努力!”

提问者:你说的是成年人的学习方法。你说,人们从新手到专家,要经历五个阶段。那计算机能像小孩一样学习吗?

Dreyfus:问题是,我们不知道怎么让它像小孩一样学习。成年人是按规则学的,计算机也一样。所以看起来很有希望。它们跟我们一样,从规则开始学,为什么学不到我们学到的东西?小孩好像不用经历规则阶段,可以直接积累案例。Tim Gallwey(写过《Inner Game of Tennis》)也相信这个理论,而且观点比我还激进。他认为思考不是好事,因为你的身体、直觉、经验给出的答案,永远比你想出来的要好。人们在压力下,投入情感的时候,遇到问题,就会开始思考,然后就表现失常,比如打网球。所以,如果能让一个人学网球的时候,不学规则,直接上场打,他就不会去想“我发球姿势对不对”,就能打得更好。他教网球从来不教规则,直接让你打。他还想建立一套全新的教育体系,完全不教规则。他甚至觉得算术也可以这样教,从一开始就学识别模式。我觉得这很有意思,或许很有价值。但我对 Gallwey 的理论有个很大的反对意见,正好跟传统观点相反。传统观点认为,我们应该做理性动物,学习解决问题,学逻辑,凡事都要逻辑思考。这是一种错误的极端。Gallwey 的观点是,我们应该像禅宗大师、像小孩一样,凭直觉做事。我觉得这又是另一个错误的极端,因为会有问题。有时候你会遇到以前从没遇到过的情况,直觉不管用,你得想办法解决。比如,你在意大利打电话,一切都跟以前不一样,你得想办法。这时候,你就得知道怎么解决问题,怎么分析细节、得出结论。我不知道我们有多少时间是凭直觉行事的,有多少时间是用来解决问题的,我估计 80% 的时间都不用解决问题,也不用逻辑思考。但剩下的 20% 可能很重要,生死攸关,所以我们得知道怎么解决问题。

提问者:你的担心是,我们会变得像计算机?

Dreyfus:是的。我书里也写过。如果 AI 真的能实现,当然很好,能听懂我们说话、读懂我们写的字,那当然好,没什么可担心的。但问题是,我们会越来越依赖计算机。但它们听不懂我们正常说话,分不清“一个冰淇淋”和“冰淇淋”、“我需要帮助”和“冰淇淋”,因为它们都一个音。语音流里没有停顿。计算机也读不懂我们手写的字。所以,我们可能得……以后学校里可能还得教怎么跟计算机说话,这太不人道了。这会对我们的文化造成多大的影响,我不知道,但这肯定不好玩。

来源:蓝天大海沙滩上的猫一点号

相关推荐