摘要:继去年荣获诺贝尔物理学奖引发全球关注后,“AI 教父”杰弗里·辛顿(Geoffrey Hinton),这位深度学习领域的奠基人近日在接受最新采访中坦言:“几乎所有顶尖研究人员都认为 AI 将变得比人类更聪明。”他之前在诺贝尔奖的官方采访中表示:AI 最快 5
责编 | 梦依丹
出品丨AI 科技大本营(ID:rgznAI100)
继去年荣获诺贝尔物理学奖引发全球关注后,“AI 教父”杰弗里·辛顿(Geoffrey Hinton),这位深度学习领域的奠基人近日在接受最新采访中坦言:“几乎所有顶尖研究人员都认为 AI 将变得比人类更聪明。”他之前在诺贝尔奖的官方采访中表示:AI 最快 5 年超越人类智慧。
具体见👉诺奖采访深度学习教父辛顿:最快五年内 AI 有 50% 概率超越人类,任何说“一切都会好起来”的人都是疯子
采访伊始,他用幽默的语气回忆起领取诺贝尔物理学奖时的趣事:“他们只是假装我搞的是物理。”
然而,轻松的谈笑之后,是他对未来的深沉忧虑:“我认为人类面临的 AI 风险,远比我们想象中要严重得多。”更令人瞩目的是,辛顿首次给出了一个令人不寒而栗的预测:AI 导致人类灭绝的可能性高达 10% 至 20%。他直言,我们正处在决定未来的关键节点,亟需投入大量资源研究 AI 安全,否则后果不堪设想。
此外,他还罕见地公开批评了科技巨头埃隆·马斯克,认为其行为正在损害美国的科学根基,这场“教父”与首富的隔空交锋,也折射出 AI 发展道路上复杂的科技、伦理与政治博弈。
以下是采访的完整内容:
主持人(Steve Paikin):我们本期的嘉宾是被誉为“ AI 教父”,因其在 AI 领域的开创性工作而荣获诺贝尔物理学奖。他也曾让埃隆·马斯克感到不快,一会儿我们问问他。他就是杰弗里·辛顿,多伦多大学计算机科学荣休教授。今天他来到节目现场,与我们一起探讨先进 AI 的前景与风险。
非常高兴你能再次回到我们的演播室。
杰弗里·辛顿:谢谢你们邀请我。
主持人:我们先来看一小段视频,我猜这是你人生中最美好的日子之一。
主持人:这是你在斯德哥尔摩领取诺贝尔奖的画面,那份激动人心的感觉多久才会过去呢?
杰弗里·辛顿:嗯……等它过去了我再告诉你。
主持人:意思是现在还没过去吗?
杰弗里·辛顿:没,还没有完全消退。
主持人:那天是不是酷毙了?
杰弗里·辛顿:简直太棒了。尤其是我根本就不是研究物理学的,却拿了个物理学诺贝尔奖。
主持人:你想解释一下这是怎么回事吗?
杰弗里·辛顿:我想他们是想表彰 AI 方面所取得的重大进展,因为现在科学界很多令人兴奋的点都在 AI 上面,所以他们就“挪用了”物理学奖,把它颁给了我,好像我是搞物理一样。
主持人:你跟他们指出这个“错误”了吗?
杰弗里·辛顿:是的。
主持人:然后呢?“谢谢你们的诺贝尔奖,但你们知道我不搞物理的。” 你当时就是这么说的吗?
杰弗里·辛顿:我就是这么说的。
主持人:那他们是怎么回应的?他们是说“白送的便宜别不占”还是怎么着?
杰弗里·辛顿:差不多吧。
主持人:你把奖章放哪儿了?
杰弗里·辛顿:我可不告诉你。
主持人:我又不会去偷你的奖章,杰弗里。
杰弗里·辛顿:你不会,但别人可能会。
主持人:哦,好吧。那可是六盎司黄金,价值大约 15000 美元。看来你不会把它熔掉,所以你是不打算告诉我它是放在家里,还是锁在银行保险箱里,或者别的什么地方了?
杰弗里·辛顿:不告诉你。
主持人:也行。下面我来读一下你的获奖理由:“通过人工神经网络实现机器学习的基础性发现和发明”。我知道你肯定被问过无数次了,那咱们就再问一次。这话用大白话怎么说?
杰弗里·辛顿:好。我们的大脑里有一堆叫做“神经元”的脑细胞,它们之间是有连接的。当你学到一个新东西时,实际上是这些连接的强度发生了变化。所以,要搞清楚大脑是怎么工作的,关键就在于弄清楚连接强度是根据什么规则来变化的。这就是全部的核心。
大脑是怎么决定某个连接应该加强还是减弱,从而让你在做某件事,比如理解我刚刚说的话时,能表现得更好。
问题就在于,它是怎么判断的?如果我们能模拟这种机制,构建一个由大量“模拟神经元”组成的网络会怎样?现在我们知道了——它会变得非常聪明。
主持人:在成千上万个科研方向中,你为什么选择了这一个?
杰弗里·辛顿:这显然是最有趣的一个。
主持人:对你来说?
杰弗里·辛顿:我认为它确实是最有意思的。要想了解人类,你必须要了解大脑是如何运作的。而实际上,我们仍然没有完全真正理解大脑的工作机制。我们比以前有了更多的想法,但距离完全搞懂还有一段距离。这似乎就是一个巨大的课题。
主持人:在获得诺贝尔奖之前,你就已经很有名了,而诺奖又极大地放大了你的影响力。从那时起,你就开始频繁地警告我们 AI 的危险。你甚至在几年前辞去了谷歌的工作,也是出于对 AI 风险的担忧。那我们来详细拆解一下:在你看来,当前缺乏对 AI 足够控制的短期风险有哪些?
杰弗里·辛顿:好的,其实主要有两种风险。一种是由于“坏人”滥用 AI 而产生的风险。这些是更短期,更迫在眉睫的风险,实际上已经在发生了。
另一种是完全不同的风险,当 AI 比人类更聪明时,它会不会想要接管一切?它会不会想把我们一脚踢开然后取而代之?你知道有多少更智能的东西被远不如它智能的东西控制的例子?
主持人:没多少。
杰弗里·辛顿:我的意思是,我们知道比较聪明的人可能会被不那么聪明的人控制,但这在智力上差别不大。
主持人:我本来想围绕这点开个特朗普的玩笑,但算了,我们继续。
杰弗里·辛顿:我也想开,但我忍住了,只是暗示了一下。
主持人:好,给我们举个例子,说说你担心的“坏人”利用 AI 技术使坏的具体情景吗?
杰弗里·辛顿:比如有人获取了大量关于民众的数据,然后用伪造的 AI 视频精准地推送给这些人,劝说他们不要去投票。
主持人:那确实是个问题。
杰弗里·辛顿:这些就是我们已经在面临的问题。比如网络攻击,在 2023 年到 2024 年间,网络钓鱼攻击增加了 1200%。2024 年的网络钓鱼攻击次数是2023 年的 12 倍。主要是因为大语言模型的出现让钓鱼攻击变得更加高效。过去的钓鱼邮件语法可能有点问题,像是从乌克兰语或其他语言生硬翻译过来。拼写也可能会有错。所以人们一看就知道是钓鱼邮件。但现在,它们都是地道的英文,非常难以辨别。
主持人:现在骗子的手段确实高级起来了。那关于你说的第二点风险“弱者控制强者”,比如较笨的人控制比较聪明的人,或者智能程度低的事物控制了更聪明的系统,你可以举些例子吗?
杰弗里·辛顿:我只知道一个例子,那就是婴儿和母亲之间的关系。对于婴儿来说,控制母亲是非常重要的。所以从进化角度来看,自然花了大量“心思”去优化婴儿的哭声——让母亲听了以后难以忍受,从而迅速做出反应。但这可能是我能想到的唯一一个例子。
主持人:我们刚才谈了短期风险。那从长期来看,风险有哪些?
杰弗里·辛顿:长期来看,我担心 AI 会变得比我们更聪明。几乎所有顶尖研究人员认为 AI 会比人类更聪明,他们唯一的分歧可能是在“何时会发生这个点上”。有人认为可能还需要 20 年,有些人认为只要 3 年,还有少数人认为就 1 年了。
总之,我们都同意 AI 会比人类更聪明。但问题是,到那时会发生什么?我们还完全无法预料。人们看法不一,但我们目前并没有一个可靠的方式来衡量这些可能性。
我自己的直觉是,AI“接管一切”的概率在 10% 到 20% 之间,但这只是粗略猜测。我唯一可以肯定的是,这个概率高于 1%,也低于 99%。
主持人:你说“AI 接管一切”,其实我觉得你说得更严重——你曾表示人类可能有 10% 到 20% 的概率会因此灭绝。
杰弗里·辛顿:如果它接管了,那就会发生(灭绝)。
主持人:你能给个时间范围吗?
杰弗里·辛顿:呃,不能,就像我之前说的,目前根本无法预估这个时间点,但如果我们现在不采取行动,可能就用不了太久了。
现在,我们正处于这样的一个历史节点:我们仍有机会开发出安全的超级智能 AI,但我们现在还不知道该怎么做,甚至不知道有没有可能做到。
希望是有可能的。如果可以的话,我们就应该努力去研究,投入大量资源去探索这个方向。
主持人:你能为我们设想一下那个场景吗?AI 会如何利用其优越性让人类灭绝?
杰弗里·辛顿:如果它们真想这么做,方法太多了,我觉得没什么必要去猜测具体方式。我认为不会像《终结者》里那样。比如说,它们可以制造一种病毒把我们全杀死。
主持人:听起来我们得抓紧控制住这个局面了。我们现在有行动吗?
杰弗里·辛顿:确实是该行动起来了。目前有一些人正在做 AI 安全研究,也有人关注它可能带来的人类生存危机,但远远不够。
现在的大公司更多是被短期利润驱动的。我们需要公众去督促政府,让政府要求这些科技巨头加大在安全研究上的投入,比如至少把三分之一的资源用在这上面。
主持人:进展如何?
杰弗里·辛顿:公众意识在提高。政界人士也逐渐重视起来了。最近在美国出现了一些倒退……
主持人:你是指哪方面?
杰弗里·辛顿:拜登政府对 AI 安全很感兴趣,还专门发布过一项行政命令来推动这方面的工作。但我担心,就像拜登以前签的很多行政命令一样,特朗普上台,可能又会被一笔勾销,啥都不剩了。
主持人:也就是说,那项行政命令会被推翻。
杰弗里·辛顿:是的
主持人:我猜这可能跟现在美国最有钱、最懂技术的那帮人都支持现任政府了。你觉得这么说合适吗?
杰弗里·辛顿:很遗憾,是这样。
主持人:好吧,很明显你是希望我们能把局面控制住。但问题是,现在好像大家还没能就采取什么措施达成共识,那我们能做些什么呢?
杰弗里·辛顿:首先要做的是建立共识,让大家意识到这是一个非常严重的问题。这不是科幻小说,而是现实威胁。我们得说服那些大公司在 AI 安全方面投入更多精力和研究。这就像气候变化。这其实就像应对气候变化一样——你必须先让人们相信气候变化是真的,而且如果不采取措施,后果会非常严重,只有这样,行动才有可能开始。
现在的行动还远远不够,但至少有一点动静了。在 AI 这个问题,我们首先需要建立共识。
不过有个好消息,面对 AI 可能带来的人类生存危机,不同国家之间其实是有合作空间的。我们应该能够和中国展开合作。其实,说实话,我现在都不太确定“我们”到底指谁了。以前我以为“我们”是指加拿大和美国,但现在嘛……好像也不是那么回事了。
主持人:确实不是了,你说得对。
杰弗里·辛顿:但无论如何,各国应建立合作,因为没人想被灭绝。毕竟,国家领导人们都不想人类被灭绝,所以生存威胁这个问题上,他们有望达成合作共识,一起努力。这算一个小小的好消息。
但坏消息是我们还不知道该怎么做。我们现在迫切需要研究出应对之策。
主持人:那你觉得,是否有某个机构能够在这方面起带头作用,推动全球合作?
杰弗里·辛顿:确实有一些组织在做这方面的努力,但还没有哪个机构真正起到主导作用。
主持人:比如说,这是不是应该归联合国管呢?还是说,应该由谁来牵头?
杰弗里·辛顿:联合国嘛……说实话,它有点力不从心,难以胜任这项任务。
主持人:那谁能胜任呢?
杰弗里·辛顿:目前来看,还得是一些大公司,因为要搞 AI 安全研究,你必须能接触到最前沿、最复杂的模型。而只有那些科技巨头,才有足够的资源去训练和掌控这些模型。
主持人:那我们来谈谈世界首富埃隆·马斯克,怎么样?
杰弗里·辛顿:(笑)如果非谈不可的话,那就聊聊吧。
主持人:(笑)我听说你已经不在他的圣诞贺卡名单上了。
杰弗里·辛顿:其实我在很多方面都比较认同他的观点。比如关于 AI 的生存风险问题,我跟他观点是一致的。他确实很重视这个问题,而且他也确实做过不少好事,比如推动电动车普及,还有通过星链帮助乌克兰维持通信,这些我都认可。
但现在他所支持的政府在做的很多事情,真的让我感到震惊。他正在大规模裁撤政府工作人员,很多人是被随意砍掉的。这些人其实都是踏实工作、品行正直的公务员。
他把这些人说成是腐败、懒惰、没用,然后就把他们扫地出门。这会带来非常糟糕的后果,会影响到很多普通人,而他似乎完全不在意。他唯一一次表现出在意,是当我公开批评他的时候,他觉得我“刻薄”。
主持人:是啊,那我们来看看你们的那次“交锋”。你在 X 上发了条推文:“我认为埃隆·马斯克应该被英国皇家学会开除,不是因为他散布阴谋论和行纳粹礼,而是因为他正在对美国的科学机构造成巨大损害。现在让我们看看他是否真的信奉言论自由。”
结果马斯克就马上给你回复了:“只有怯懦、缺乏安全感的傻瓜才在乎奖项和会员资格。真正的审判者应来自历史,永远如此。你这条评论既无知又刻薄,而不属实。话虽如此,我的哪些具体行为需要纠正?我会犯错,但我会努力快速改正。”
你对他的推文有何反应?
杰弗里·辛顿:我觉得最好不要和埃隆·马斯克进行冗长的你来我往,因为我还想继续顺利的入境美国呢(笑)。再说了,我的朋友杨立昆(Yann LeCun)已经替我回答了那些问题。
主持人:我们在哪里能看到那些回答呢?
杰弗里·辛顿:就在推特上。你可以在那条推文下面的评论区发现,有一串回复里就有。
主持人:所以那是你和他唯一的直接互动?
杰弗里·辛顿:大概在几年前吧,他让我打个电话给他,说是想聊聊“人类生存威胁”这个问题。其实,他是想让我去担任 XAI 公司顾问。我们确实先聊了几句 AI 的生存威胁,然后他就开门见山问我,愿不愿意加入 XAI 当顾问,我拒绝了。
他以为我可能会同意,因为他雇佣了我非常好的一个学生在那儿做技术人员。然后他就开始漫无边际地瞎扯。
于是我就临时编了个借口,“对不起埃隆,我还有个会,得先走了。”
主持人:就这样。
杰弗里·辛顿:对,就那一次。
主持人:如果我可以把这件事拆开来看——他在一开始对你发起了相当个人化的攻击,就像你对他也有一些评价。公平地说,并不是所有人都认同他在台上做的那个动作是纳粹礼。他会辩称他只是在向人群表达心意。
杰弗里·辛顿:当然(他会这么说)。
主持人:你不信这个说法?
杰弗里·辛顿:不信。特别是如果你了解他的过往,还有他父母的观点等等。
主持人:是的,他确实时不时和一些法西斯主义的情况有些接近。但接下来的部分就比较有建设性了,他问你有什么可以改进的地方。
杰弗里·辛顿:是的,但我的好朋友杨立昆回答了,所以我就没在参与。
主持人:你是否愿意分享一两件你认为他应该做的事情?
杰弗里·辛顿:如果他要做的话……我的意思是,咱们先弄清楚事情的本质。他想要为富人进行大规模减税,大概 4 万亿美元,这就是所要付出的代价。
为了不大幅增加国债,他们必须在别的地方削减开支。或者对我们征收关税。
他们计划做的两件事是削减政府开支和征收关税,而关税实际上是对穷人的打击。关税是一种非累进税。它们会让所有商品价格上涨。
所以普通人最终将为他们购买的东西多支付 4 万亿美元,来为富人的减税买单。这太恶心了。
主持人:这就是美国现在的政府政策。
杰弗里·辛顿:这很恶心。
主持人:你提到了对美国科学机构的损害。具体来说是指什么?
杰弗里·辛顿:举个例子,如果你让一个脑子进虫子的疯子来负责来管整个国家的卫生系统……
主持人:你说的是小罗伯特·F·肯尼迪(RFK Jr.),对吧?
杰弗里·辛顿:是的。
主持人:你完全不赞同他现在做的任何事吗?
杰弗里·辛顿:也不能这么说。这些事情从来都不是完全黑白分明。
他提倡人们应该健康饮食,这一点是有价值的。但他极力反对的某些东西,比如植物油,可能没有他说的那么糟糕。
但整体来说,健康饮食有助于改善身体状况这个观点是非常重要的,他多少也推动了一下。但他其他大部分的说法,基本上是胡说八道。
主持人:那你不认同他关于疫苗、制药公司,或者像自闭症成因这类事情的怀疑态度?
杰弗里·辛顿:对,我不认同。关于这些问题已经有大量的研究了。正是因为这些奇怪的声音存在,才促使研究人员更加认真地去研究这些问题。
那些宣扬这些阴谋论的人,大多只是想卖你某种药品或其他什么产品。他们这么做,是为了吸引注意力,本质上是一种营销手段。
他们自己其实并不相信这些说法。就我所知,他自己的孩子都打了疫苗。
主持人:这就很说明问题了。就像当年福克斯新闻全天候播放反对强制接种疫苗,背地却让他们的所有员工都必须接种疫苗。
杰弗里·辛顿:没错。
主持人:我们已经聊了很多AI带来的风险。那你能不能给我们留下一些稍微让人感到希望的理由?让人觉得这事最后也许并没有那么糟?
杰弗里·辛顿:当然有。AI 之所以还在不断发展,而且我们也无法真正阻止它,很大一个原因是它确实能带来很多好处。
比如说在医疗领域,它将带来巨大变革。未来你能享受到远比现在更好的医疗服务。想象一下你拥有一个 AI“家庭医生”,它看过上亿病人的病例,了解并记得你和你家人做过的每一次检查,能给出更准确的诊断。现在,AI和医生合作处理复杂病例时,错误率已经明显低于医生单独判断。这一切已经在发生,而且还会继续改善。
在教育方面,AI也将带来巨大飞跃。我们知道,有私人家教的孩子,学习效率可以提升一倍,因为家教可以及时发现孩子没理解的地方。而未来 10 年内,AI 系统可能就能胜任这个角色。
当一个孩子在学习时,AI 能精准识别孩子的误解,因为它已经“看过”成千上万个其他孩子的学习过程。它知道孩子是哪里没弄懂,也知道该用哪个例子来帮助孩子理解。
如果说一个人类家教能让孩子学得快两倍,那这些 AI 辅导系统可能让效率提升三到四倍。对大学来说这也许不是什么好消息,但对真正想学习知识的人来说,那可太棒了。
主持人:对大学不是好消息,是因为?
杰弗里·辛顿:也许以后我们就不再需要大学了。不过,我认为做研究生阶段的研究是离不开大学的。我认为你大家仍然需要“学徒制”的方式来学习如何做研究。
因为科研这件事情,无法靠一套明确的规则来教。我们可以告诉你“我会这样处理这个问题”,但我们不能制定一个“做研究就按这套流程来”的标准。根本不存在这样的规则。这就是一种“跟着学”的过程——一种学徒制。
主持人:那是不是意味着,那些认为上大学去学习编程或计算机科学是个好主意的孩子们,他们现在有麻烦了?
杰弗里·辛顿:很可能是的。
主持人:我的意思是计算机科学专业不止教你怎么编程了,但是……
杰弗里·辛顿:是的。
主持人:人们称你为“AI 教父”,你喜欢这个头衔吗?
杰弗里·辛顿:我挺喜欢的。虽然起初这个称号并非出于善意。是在一次会议之后有人开始这么叫我的,那次会议我有点像是在主持,频繁打断别人说话。
主持人:哦,所以他们叫你教父是因为……
杰弗里·辛顿:是吴恩达(Andrew Ng)带头的。那是在英国温莎的一次会议。会议结束后,吴恩达就开始叫我教父。
主持人:因为你总打断别人说话?
杰弗里·辛顿:因为我是那里年纪最大的,而且对人有点指手画脚。
主持人:明白了。你得了诺贝尔奖金的一半,大概是五十万美元?
杰弗里·辛顿:整个奖金大概是一百万美元。我拿了一半就是五十万。
主持人:在这五十万里,你捐了一半给“Water First”组织,对吧?
杰弗里·辛顿:是的,二十五万美金相当于三十五万加币。
主持人:“Water First”是什么组织?
杰弗里·辛顿:“Water First”是一个培训居住在原住民社区的人们掌握水处理技术的组织。教那些社区的居民如何让他们的饮用水变得安全。
主持人:你为什么选择他们?
杰弗里·辛顿:我在秘鲁收养了一个孩子,并在那里住了两个月,那里的自来水不能喝,简直是致命的。所以我体会过没有安全饮用水是什么滋味。
如果你有个婴儿,却没有办法保证他喝的水是干净的,这就会占据你全部的生活精力,你得时刻想着怎么让孩子不要生病。这简直是强加给人们的一种疯狂的生活负担。
而且我觉得,在加拿大这样一个富裕的国家,竟然有那么多原住民社区没有安全饮用水,这简直是一种耻辱。
比如在安大略省,20% 的原住民社区没有安全的饮用水。
主持人:这话不会让感到你满意,我也不想敷衍你,但现在的情况比十年前要改善一些了。
杰弗里·辛顿:也许吧。
主持人:不,确实是进步了,我们可以这么说。
杰弗里·辛顿:可他们本就应该有安全的饮用水。
主持人:当然,毫无疑问。你接下来有什么计划?
杰弗里·辛顿:我正试着退休呢,但这个退休计划执行得一塌糊涂。
主持人:你现在多大?
杰弗里·辛顿:77岁。
主持人:哎呀,这年纪退休太早了。
杰弗里·辛顿:我原本 75 岁离开谷歌的时候就想着可以退休了。
主持人:你还有大把的时光呢。
杰弗里·辛顿:也许吧。
主持人:你看起来真不像77岁,我得说。
杰弗里·辛顿:谢谢。
主持人:不,我真觉得你的人生还至少能写出一两章新故事,甚至三章都有可能。
杰弗里·辛顿:你看起来也挺不像 77 岁的。
主持人:好的化妆师能改变一切。非常感谢你今天能抽出时间过来,并回答这些有点尖锐的问题。而且,也许你和埃隆会冰释前嫌,一起尝试解决我们正在面临的难题。
杰弗里·辛顿:我觉得那不太可能。
主持人:这位是杰弗里·辛顿,多伦多大学计算机科学荣休教授,诺贝尔物理学奖得主。感谢你今晚的节目。
杰弗里·辛顿:谢谢你们邀请我。
来源:CSDN一点号