摘要:——大多数人都相信的东西也可能是完全错误的。——算力不足是神经网络表现长期未达预期的主要原因。——神经网络可以学会推理,不需要接入符号推理引擎。——那些超越人类的AI看我们,可能就像我们看蟑螂一样。——机器共享知识的效率比人类高上万亿倍,这非常可怕。——AI取
转自普林斯顿读书会,版权属于原作者,
【金句整理】
——大多数人都相信的东西也可能是完全错误的。
——算力不足是神经网络表现长期未达预期的主要原因。
——神经网络可以学会推理,不需要接入符号推理引擎。
——那些超越人类的AI看我们,可能就像我们看蟑螂一样。
——机器共享知识的效率比人类高上万亿倍,这非常可怕。
——AI取代人类的概率在10%到20%之间。
近日,人工智能领域的传奇人物、被誉为"AI教父"的Geoffrey Hinton接受了一次罕见的深度专访。在这次2025年的首次公开对话中,这位77岁的科学家针对中国AI代表作DeepSeek给出了令人振奋的评价,引发业内广泛关注。
"你也看到像中国那边的DeepSeek,研发成本大致在500万至600万美元之间,可以做出接近的成果。"Hinton直言不讳地指出,这一事实正在改变全球AI格局。在全球AI技术竞赛日益白热化的当下,DeepSeek等中国模型正以惊人的性价比挑战西方AI巨头的技术优势,展示了中国在AI领域的创新能力。
作为神经网络研究60年的坚守者,Hinton的学术地位无可撼动——他与Yoshua Bengio和Yann LeCun共同获得了计算机科学界的"诺贝尔奖"图灵奖,被认为是深度学习的奠基人之一。2023年,他从谷歌辞职以便自由讨论AI的未来,一时引发全球关注。在此之前,他与学生Alex Krizhevsky和Ilya Sutskever在2012年ImageNet挑战赛上的突破性成果,被公认为现代AI革命的起点。
Hinton已经思考人工智能问题整整60年——从17岁开始,一直到今天。在他看来,中国AI企业正展现出惊人的创新活力和技术实力,有望在全球AI竞争中占据重要地位。在当前AI能力边界不断被突破的背景下,Hinton的每一次采访都在值得我们关注未来的人认真聆听。
主持人: 挺有意思的,你其实在当时看来其实都不走寻常路,对吧?也算‘非传统思维’的人物。
Geoffrey Hinton: 是的,喜欢跳出固有框架去思考问题。
主持人: 对,这也确实是你职业生涯的标志——跳脱框架,不局限于单一路径,而是尽可能地去探索各种可能性。你觉得这跟你成长经历有关吗?比如家庭环境之类的影响,还是更多是你遇到的导师、同事?
Geoffrey Hinton: 其实我是一直在同一个方向上做研究,我并没有频繁更换方向。一直研究‘随机初始化神经网络如何学会做复杂任务’,我当时就觉得一定有办法,因为大脑就能做到。但这个方向在计算机科学领域当时很不受欢迎。别人都会说,‘这太疯狂了,随机连接的神经网络根本学不到什么有用的东西,一定要有先天知识才行。’ 认知科学家也是这么说。而计算机科学家会说,‘何必这么做?直接写程序不就得了?难道你分不清软件和硬件吗?’ 然而在大脑里,软件和硬件并没有明确的区别。所以问题来了,我为什么要在这个方向上坚持60年?我17岁开始想这些问题,现在我77岁了,已经思考了60年。我的父母都是无神论者,但他们却送我去一所基督教学校,我一直是以无神论者的身份成长的。我那个时候就想,‘他们给我上的宗教课完全是废话。’我很小就坚信那就是胡扯。而随着时间推移,越来越多的同学也慢慢觉得我说的有道理。这对我影响很大,因为我从小就会觉得,大多数人都相信的东西也可能是完全错误的。这其实对我后来的职业生涯很有帮助——当我研究的方向被所有人都说‘荒谬’时,我不至于轻易被动摇。只不过要想成功,除了敢质疑多数人的想法,你还得确保自己是对的。
主持人: 是啊,你早期研究时因为路线不被认可,发表论文也会很困难吧?
Geoffrey Hinton: 是的,没错。所以我们才创办了《Neural Computation》这个期刊,用来发表神经网络方面的内容。即便到了后期,到了2009年、2010年左右,其实神经网络已经在一些任务上非常成功了,投稿依然困难。我记得我们那会儿有篇关于行人检测的论文(也可能是关于语义分割技术的,记不清了)投到某会议。一位审稿人给的拒稿理由竟然是,‘这篇论文对视觉研究毫无贡献,因为它只是通过学习来完成视觉任务。’ 他完全没有意识到这篇论文对视觉的启示恰恰是‘视觉就是可以通过学习来实现’。还有一次,Yoshua Bengio投了一篇神经网络的论文到ICML(国际机器学习大会),一位审稿人竟然说,‘这不该收,因为这是神经网络的内容,神经网络跟ICML没关系。’ 我曾给认知科学学会的会议投过一篇关于进化和学习如何交互的论文,两个审稿人都说该收,可是会议主席却把它拒了,因为‘这篇论文讲到了进化,而进化不该在认知科学会议上出现。’ 后来才知道他是个基督教原教旨主义者……总之,这跟我过去形成的偏见又对上了。
主持人: 对,能不能讲讲当时那段经历?你为什么让他们攻克ImageNet挑战赛?他们又是怎么加入你组的?
Geoffrey Hinton: 我觉得我很幸运。那段时间,能带着一大批研究生、专门研究‘可以学习的神经网络’的教授并不多。真正相信神经网络能学到东西的研究小组非常少。比如有我,有Yoshua Bengio,还有Yann LeCun——他后来从工业界回到了学术界当教授。此外在瑞士还有Jürgen Schmidhuber。但在MIT、伯克利、斯坦福这些大牛校,当时几乎没人做这块。这就意味着我们这边能吸引到最优秀的学生。要知道,学生们才是真正能看见未来的人,他们决定了未来走向。有些聪明的学生看到了神经网络的潜力,就跑到多伦多来。那是我的运气。
ImageNet是李飞飞他们发布的一个计算机视觉竞赛数据集。那会儿(2010年前后)计算机视觉领域还普遍觉得,‘视觉是要基于David Marr的思路,有一套理论,然后你根据理论实现它。你要真正理解视觉在做什么,然后把这个原理编码成算法。’ 他们很排斥‘纯粹靠学习’来完成视觉任务,甚至觉得,如果一个系统自己学会了怎么做,而我们都没搞清它内部机理,那就不算真正理解。我们直到2012年才终于有了足够大的数据集,让神经网络可以真正识别真实世界的3D物体。之前只能处理类似邮编那样的二维简单图像。对于那些研究者来说,识别邮编这种任务太简单,他们觉得那不能代表真实视觉问题,也看不上。但我们在2012年就能拿ImageNet来演示,神经网络真的能学会识别真实物体,而且效果很棒。其实在比赛正式结果公布之前,我们自己就知道会赢,因为Alex写出的网络在之前的数据集上已经比其他方法都好。当时我也贡献了一些想法,比如dropout这种正则化思路,还有用ReLU(线性整流)神经元而不是sigmoid神经元。但主要的工作还是Alex和Ilya两个人干的。特别是Alex,他在编程上非常厉害,能让多块GPU并行训练卷积神经网络,而且效率极高。Ilya则很有远见,他意识到我们实验室里给语音识别用的那一套技术,其实也能用来搞图像识别,然后就极力主张我们要去参赛。他帮助做了很多预处理,让Alex好上手。
他们两个还想了个绝妙的管理办法。当时Alex得写深度报告——相当于你要写篇文献综述来证明你具备做研究的基础。但Alex写东西并不开心,他写作水平不错,但他更想写代码。他就一直拖着不写。我是他导师,理应敦促他赶紧写。可我最后对他说,‘Alex,每当你让网络在验证集上的准确率提高1%,你就能再把这个报告往后拖一个礼拜。’ 结果他就一直拖,一边狂提升性能。最后那个网络在那篇2012年的论文里做出了世纪性的效果——几乎一举证明了神经网络在真实图像上的强大能力。在那之后,他其实也没再做更多新的研究,那篇论文其实本该成为他的博士论文的核心,但在加拿大,若干规定跟美国有所不同,总之他最后并没有走传统‘写博士论文’的流程。
主持人: 当时你们使用的是黄仁勋他们英伟达的GPU吧?是怎么结缘的?
Geoffrey Hinton: 差不多是在2006年吧。当时CIFAR资助我去探访西雅图的Rick Rashid,他在微软工作。我那时候腰不太好,坐不了飞机,也开不了车,只能坐火车。结果西雅图到温哥华的火车好像那会儿停运了,Rick就开车载我回加拿大,我一路躺在后座上。我们一路闲聊,他也曾是我20年前的学生。他告诉我,‘你应该用GPU训练神经网络。’ 因为神经网络主要就是矩阵乘,而GPU正是为矩阵乘做了优化。我回去之后就开始琢磨,大概在2007或2008年开始买GPU板子,发现对训练速度帮助巨大,可能比CPU快十倍还多。这相当于把CPU的5到10年的提升一下子就拿到了。那时候我们才真正意识到,原来之前神经网络表现一直没达到预期,大部分原因是算力不足。
其实我们90年代就该想到这点,因为当时就有两拨研究小组(瑞士的Berkeley和英国那边的Tony Robinson)把神经网络用在语音识别上,并且达到或超越了主流技术,但他们都用了不寻常的硬件。比如Berkeley那边用的是DSP芯片加Xilinx可编程阵列做快速通信,Tony Robinson那边用的是Transputer那种很难编程的并行机。虽然后来事实证明,只要肯投入大力气做并行加速,神经网络其实可以很好地做语音识别,只是当时我们没能意识到更多算力才是瓶颈而已。然后到了2009年,我们已经可以在语音识别的声学模型(比如看语谱图来识别哪个音素)上用GPU训练神经网络,效果显著提升。当年我在NIPS大会做了一个受邀报告,就跟大家说,‘做机器学习的都该去买英伟达的GPU。’
回去后我还给英伟达写邮件说,‘我刚让上千个做机器学习的人去买你们的GPU,能不能送我一块免费板子?’ 我作为学术穷苦人士就只能厚着脸皮这么要。但是他们当时根本没回我。可见2009年时,我们都觉得GPU一定是机器学习的未来,但英伟达也许还没有真的重视起来。一直到2012年AlexNet出来后,黄仁勋才意识到这里面的大机会。他后来对我说,他们在2012年就看到了GPU一定会成为AI的核心,我就回他,‘可我2009年就跟你们说了,你们当时也没理我!’ 他后来给我送了块卡。如果那时候他提醒我说,‘干嘛不买点英伟达的股票呢?’我要真买了,估计现在我已经是亿万富翁了。
主持人: 是啊,确实机缘巧合都凑到了一起。再说到Jeff Dean,他自1998或1999年起就在谷歌,然后他很早就注意到了你们的成果。你们是怎么在谷歌碰到一起,开展合作的?
Geoffrey Hinton: Jeff Dean在读硕士时就做过神经网络和反向传播的项目,所以他对这块并不陌生。后来他加入谷歌后,写了很多关键的软件系统。再之后他跟Andrew Ng聊过,Andrew说服他创建了谷歌大脑团队。Andrew后来离开去做Coursera,就建议他们把我招进去做顾问。于是我在2012年夏天去了谷歌两个月,跟他们一起做访问科学家。我和Jeff Dean相处得特别好。他的软件水平比我强多了,我那会儿对神经网络比他熟,可现在他也许已经超过我了。总之我们合作愉快。然后,当我们2012年用AlexNet拿到那个惊人的结果之后,我这边就组建了个小公司,让谷歌把我们给收编。我们搞了场小型拍卖,但我其实心里就想让谷歌赢,因为我很想和Jeff Dean一起工作。我们最后也如愿以偿。
主持人: 真是段传奇历程。那说到现在,你对AI和机器学习的未来有什么看法?有没有哪些方向你觉得特别有潜力,比如有些人提出神经网络也需要和符号方法结合,或者用一些新的体系结构?你怎样看待这些尝试?还是说你还是更坚持现在深度学习这种方式就是未来?”
Geoffrey Hinton: 其实我觉得会不会出现那些能大幅改变神经网络的重大新进展?很可能会出现。但另一个问题是——要到达‘和人类一样聪明,甚至更聪明’的程度,是否一定需要某种根本颠覆的全新思路?我觉得未必。长期以来,‘老派AI’的人都说,神经网络只能做直觉,无法进行推理。但事实证明他们是错的。现在的神经网络推理能力已经相当强了,而且并不是通过接入一个符号推理引擎,而是直接用神经网络本身做到的。你完全可以问一个大型聊天模型一个有点考智商的小问题,比如‘Sally有三个兄弟,每个兄弟都有两个姐妹。那么Sally一共有几个姐妹?’人类做这个题,也常常会混乱:有些人忘记‘这三个兄弟共享姐妹’,也有人忘记‘其中一个姐妹其实就是Sally自己’。神经网络以前基本做不出正确答案,现在有些模型都可以推断对。它们也没有额外植入什么特殊的推理模块,只是网络规模更大,训练数据里包含大量涉及推理的例子,它就学会了。所以我不认为要让神经网络达到或超过人类智能,就一定需要全新的根本性变革。但我也相信,今后一定会出现一些新想法,这些新想法当然可能会进一步提高效率或性能。”
主持人: 确实有趣。那你有看过一些比较‘非传统’的架构吗?或者说,你有关注类似模拟计算的方向吗?
Geoffrey Hinton: 我研究过一点模拟神经网络,但不是为了让它们更善于推理,而是为了看能不能降低功耗。我最后的结论是,模拟网络很有意思,一旦它们学会做某事,就可以打破‘硬件’和‘软件’的区隔,因为你可以深度适配特定硬件的各种特性。可如果真想让模拟计算特别高效,你必须使之‘专用化’,也就是只能适配某块特定的硬件,直接在那个硬件上学得的一切也只能在那块硬件上用。一旦那块硬件坏了,知识就全没了。不同的硬件也没法直接把权重复制给对方。而数字化的神经网络就不一样,你可以在不同的相同型号硬件上跑一模一样的模型,然后把各自学到的梯度或权重更新平均一下,实现快速的知识共享。这就是我们人类大脑做不到的。我们要交流知识,就得通过语言,一个句子也就几百比特的信息量,但机器之间可以直接共享所有权重更新。你要是一个模型有1万亿个参数,另外一个也有1万亿个参数,两边跑在不同硬件上,各自看不同的数据,然后可以直接把各自的权重变化进行平均,这个信息带宽是上万亿比特的量级!而我们人类用自然语言分享知识,效率差太多,所以数字系统在这方面天然比我们优秀得多。我觉得这非常可怕。
主持人: 是啊,你最近也在牛津等地方做了一系列公开演讲,你得了诺贝尔物理学奖之后,还继续谈论这种‘概率’问题。你能不能说说为什么你觉得……”
Geoffrey Hinton: 当然,这是主观概率。不是用什么精确计算得出的。我个人认为,如果说这些比我们更聪明的AI完全取代或掌控我们人类的概率会是多少,肯定不会只有1%以下。Yann(LeCun)可能觉得小于1%,他不肯给我个确切数字。Eliezer Yudkowsky那样的人会觉得大于99%,甚至建议‘现在就该去轰炸所有数据中心’,那就太极端了。我会说,这事情充满未知,但我们还是有一些可控性的,不一定完全无法控制,也许没我们想的那么稳妥。所以这个概率肯定是在1%到99%之间。有人让我做个具体猜测,我会说差不多是10%到20%吧。如果我说50%,那听起来就非常吓人了。有人也许能说服我去相信50%,但我更倾向于觉得我们人类最后还是会想很多办法去保持对更聪明AI的控制,也可能真的想出些对策。所以也许概率不会高到50%。我当然更希望它小于50%。
主持人: 那如果真的无法想出对策,让AI远超我们之后的未来会怎样?
Geoffrey Hinton: 那我们可就完蛋了。马斯克觉得那些超越人类的AI会保留我们,因为人类能让世界更有趣。但要是它们真的比我们聪明那么多,那就好比我们对待蟑螂:我们比蟑螂聪明很多,可我们并不会因为‘蟑螂让世界更有趣’就有意保留它们。多数人觉得,‘蟑螂有什么好玩的。’ 超级智能AI看我们可能也是类似感受。或者说就像一只蚂蚁会想象量子引力坍缩、奇点、人工智能这种事情吗?对它而言根本无法理解,然后我们看蚂蚁也是一样。超级智能看我们,大概也会是这种感觉。所以我觉得我们应该非常认真地担忧‘数字化智能’这一可能性,因为它能更好地共享,从而学到更多东西。这也是为什么GPT-4能掌握比任何一个人都多上几千倍的知识——因为它能够在不同硬件上运行的模型之间共享。而正因为如此,它将变得比我们更加博学、更加聪明。我们真的要认真考虑我们是否还能保持对它的控制。现在有些人,比如Rich Sutton,他就认为,‘智慧会自然而然地进化,这是智力的下一个阶段。我们人类终将成为历史,这就是自然进程。’也许真是这样,但我们毕竟是人类嘛,我们更关心人类自身。所以站在人类的立场,我觉得我们应该努力让人类继续保持控制。打个比方,我之所以吃牛肉,是因为我更喜欢人类而不是牛,我天然就以‘人类为中心’。所以,从人类的道德观来看,我们至少有理由想要保持对这些AI系统的控制。
主持人: 你知道,有趣的是,如果我们把时间倒回两年半,或者再往前点,大家今天所见到的这些模型的使用方式,在当时几乎都会被视为科幻小说。要么大多数人会说,‘哦,那可能要再过五十年或者三十年吧。’如果你在两年前问他们,大部分人也会说类似的话。如果你回到十年前问,‘到2025年,我们会不会有类似今天这样的模型?’ 大家绝对会说,‘不不不,那起码也得再过五十年。’
Geoffrey Hinton: 我也会这么说,是啊。你看现在AI还能创作音乐,并且已经经历了多轮迭代。你能看到Sora,谷歌那边也有一些项目……它们都在做非常有趣的生成工作。还有像arc AGI基准,在2020年的时候,模型的得分也许还是零,后来涨到了5%,有人能做到50%,然后又出现了某种80%或70%的结果,对吧?而最新的GPT-4,如果给它足够算力,能达到87.5%的成绩,确实是很惊人。我还想知道更多细节——我不太熟悉相应文献,所以不知道它们在这个特定数据集上的表现是否有针对性的优化。总会有个问题:是不是专门对这个数据集做了某种微调?不过不管怎样,这都很厉害。”
主持人: 对。不过举例说,Sora他亲自做了测试。他自己搞了arc基准测试,如今他们在做arc 2。他们设定了一个门槛,五年里都没人能越过去,然后某天突然就出现了一个85%的成绩,大家这才惊呼,‘哦,那看来我们得再想个新版本了。’AI领域经常出现这种情况啊。还在2022年的时候,比如Gary Marcus曾经说AI到瓶颈了,‘不会再有多少进步了。’结果事实证明,他的这个预测非常不准。我们总能看到这种预测,说‘神经网络不会再进一步了,除非出现什么全新原理’,但实际上网络越做越好,不断提升。
Geoffrey Hinton: 我觉得他甚至超越了极端。这很有意思,然后人们在这个光谱上分布各异。你能看到不同观点。我自己最近比较高调地表达了一些担忧,我认为我们需要更谨慎地思考AI带来的后果。还有一件事对我影响挺大,部分源自我对‘模拟和数字’的看法,意识到数字之所以更强就是因为它能更好地共享。但也还有别的因素让我产生担忧。很多人认为,大型语言模型虽然能预测下一个词、回答问题之类的,但和我们人类大脑工作方式完全不同。可如果你回顾这些模型的发展历史,你会发现最初那些模型就是用反向传播来训练神经网络,让它们预测下一个词。其实我在1985年就实现过第一个这么做的小模型,只是规模很小。它当时的目的并不是成为一项技术,而是为了模拟‘人怎么从一连串符号里学到单词含义’。所以,对‘人如何处理语言’最好的模型就是这些大型语言模型。坚持符号主义AI的人曾非常坚信,语言的运作机制一定是‘在大脑里有一串符号表达,然后有一套规则用来操作这些符号’,这基本就是种逻辑系统,只是形式上可能不那么单一,但归根结底就是符号。对他们来说,这不是个假设,而是自然而然的真理。Newell和Simon中的Newell甚至提出过‘符号处理假设’,他觉得那是显而易见的真理。可语言真正的工作方式是:词进来后,你把它转换成神经活动模式的特征向量,然后这些词的特征向量相互作用,并结合上下文去预测下一个词。当然,你还能做别的事。但本质上,符号进来了就变成特征向量,而‘特征之间的交互’才是蕴含知识的地方。
现在有了Transformer,这种交互方式更复杂了,但本质上还是‘特征之间的交互’。知识就存在这些交互里。网络内部没有什么‘符号串’;如果它想输出符号串,会在输出端生成,但在网络内部就只是特征及其交互。可很多人还不相信这是人脑的工作方式,所以他们觉得这些神经网络跟人有很大区别。也许在梯度怎么来、经历了多少数据量上有区别,但在‘如何把符号映射到含义’的基本机制上其实是一样的:把符号转成特征向量,让这些特征之间相互影响、细化,这整个活跃的特征空间就是模型本身。它非常灵活,你可以用它来建模几乎任何事。而且因为符号能以名称出现,你可以通过逐字输出把想法缓慢地传达给别人,而不用传递完整的特征向量——这就等于语言赋予我们一种非常灵活的建模方式。语言学家过去从来没有一个像样的‘意义如何形成’的模型。他们大多说,‘先搞语法,意义以后再说。’但现在我们真的有了一个对‘意义’的建模方法:它就是把符号和特征向量关联起来,然后让特征之间相互作用,就能建模任何东西,这正是我们在语言中所做的事情。
主持人: 这真是太有意思了。你说的这些工作,最初得追溯到好几十年前,现在终于被证明是行得通的,对吧?
Geoffrey Hinton: 是的,花了很长时间。我那个1985年的语言模型,主要学的是家族关系之类的东西,能够做一点点泛化。当时只有大概一百个训练样本,参数大概一千个权重。后来又过了差不多十年,Yoshua Bengio才做了一个类似的模型,他其实做了两个模型,其中一个就和我当年的思路很像,只不过他的模型用的是真实自然语言,不是我那种玩具数据。结果证明,差不多的技术对于真实自然语言也有效。然后又过了十年,语言学家才开始用特征向量。再之后又过了十年,Transformer和大规模语言模型开始席卷整个领域。所以这是个漫长的过程。我想主要的原因还是算力不足,也有些‘学术体制本身的惯性’,但算力是更大的限制。1986年的那些计算机,你根本没法做现在这样大规模的语言模型训练,它们速度太慢了。
主持人: 我知道英国、美国、加拿大也有一些安全研究所正朝这方向努力,可如果你去看它们能使用的算力资源,其实很有限。英国那家研究所也许能微调一个大模型,但要想从头训练个大型模型就力不从心了。只有大公司才有这个本事。”
Geoffrey Hinton: 是啊,不过你也看到像中国那边的DeepSeek,研发成本大致在500万至600万美元之间,可以做出接近的成果,而且他们确实把它开源了。可是关于‘开源’我觉得也值得商榷。有些人说是‘开放源代码’,但其实放出的是权重。这其实并不一样。传统的‘开源’是开放代码,比如Unix内核那样,人们可以查看代码发现bug。而把模型的权重放出来,人们并不会去看一行行权重,说‘哦,这个权重好像太大了。’ 而当你把权重都公开,人们只需要一点点资源就能对模型进行‘微调’,让它干各种坏事。所以我认为,不该公开大型模型的权重。这就好比把‘核裂变材料’公之于众。如果你问,‘为什么我们每个人都没有原子弹呢?为什么每个小镇没有自己的核弹呢?’ 答案是要提炼铀的同位素非常难,可如果你把提炼好的核材料给人家,那做炸弹就很简单了。对大型语言模型来说,‘炼铀’的阶段就是预训练那个基础模型,而那需要海量资源。也许比以前要少了,但依然不少。可一旦你把训练好的权重公布出来,别人只需要几百万美元就能让它干各种坏事。把权重交出去简直太疯狂了。
主持人: 好的,换个话题:还有哪些你想探讨的议题吗?或者说,你觉得在这场访谈中有没有遗漏的点儿?
Geoffrey Hinton: 我对‘这些东西是否拥有主观体验’很感兴趣。很多人会用‘意识’或‘感知’或‘主观体验’这些词,也会说‘情感’、‘感受’。不少人(尤其人文领域的学者)非常笃定地认为,这些AI系统绝对没有这些东西,因为那是人类独有的。可要他们解释为什么‘人类独有’,他们也说不出个所以然。其实如果你回顾人类的历史,我们对自身的评价一直很不靠谱:我们高估自己,觉得自己是造物主的形象,宇宙的中心。但其实我们只不过是有野心的类人猿嘛。 所以‘机器不可能拥有情感’这对大多数人来说似乎很显而易见,但在我看来简直是扯淡。举个能让人深思的实验:假设我把你大脑里的一颗神经元换成一块纳米电子器件,它接收和原先神经元一样的输入,比如血液里的一些肽类分子,并产生相同的输出,也能向血液中注入肽类分子,能发放动作电位,总之完全模拟那颗神经元的行为。你显然还会觉得自己是有意识的吧?就换了一颗神经元而已,你不会突然失去意识。接着再换第二颗,你也还是有意识。那如果把所有神经元都换掉,你会在哪个点突然失去意识?其实你还是有意识的。所以如果你相信唯物主义,就必须承认‘机器可以有意识’。这就是结论。
主持人: 好吧,看来我们聊得也差不多了。你已经给出了很多建议,那么最后,如果你想对我们的观众再提点什么,一些收尾的看法?或者你有没有什么总结性的想法想留给大家?
Geoffrey Hinton: 我想提个相对小的话题:很多人在讨论歧视和偏见,但对我来说,这也许是我相对不那么担忧的问题之一。当然,有人会说,‘你是个年长的白人男性,你没经历过那些歧视,这才不担心。’ 这话也许有些道理。但如果我们的目标不是要做一个完全没有歧视、毫无偏见的AI,而是做一个‘比现有系统更少偏见’的AI,那我觉得大有可为。人和AI系统最大的不同在于:对AI系统,我们可以‘冻结’它的权重,然后去测量它到底哪里偏见、哪里歧视。但对人就不好测量,因为人知道你在测他,他会改变行为,这就叫‘大众汽车效应’(Volkswagen effect)——我希望这个说法能流行起来。所以要纠正人的偏见其实更难。而如果我们用的是‘由老白男来决定是否给年轻的黑人女性批贷款’这种数据来训练AI,AI自然也会学到偏见。但现在我们可以拿这个训练好的模型去测量它的偏见并加以修正。我们没法一次就把它修正到完美,但可以一点点减少偏见。就好比一次次用‘梯度下降’的方法:先用AI替换原来的老系统,让偏见减少一点,然后不断迭代。永远做不到完美,但一定能比现状好得多。
来源:人工智能学家