李飞飞:我不知道AGI是什么,我们应该尊重人类的能动性

360影视 2025-01-20 11:42 2

摘要:近日,“AI 教母”、斯坦福大学首位红杉讲席教授李飞飞做客由美国知名风险投资家、LinkedIn 联合创始人Reid Hoffman主持的播客频道Possible,逐一回答了上述问题,并分享了她从 2009 年创建 ImageNet(AI 行业第一个大型图像识

我们如何利用人工智能(AI)放大人类潜能,创造更美好的未来?AI 为何要“以人为本”?通用人工智能(AGI)究竟意味着什么?未来 15 年可能会发生什么?

近日,“AI 教母”、斯坦福大学首位红杉讲席教授李飞飞做客由美国知名风险投资家、LinkedIn 联合创始人 Reid Hoffman 主持的播客频道 Possible,逐一回答了上述问题,并分享了她从 2009 年创建 ImageNet(AI 行业第一个大型图像识别数据库),到目前担任空间智能初创公司 World Labs 联合创始人兼首席执行官的历程。

在采访中,李飞飞还解释了为什么空间智能对 AI 的发展如此重要,以及它如何能在医学、气候和教育等领域带来突破,进而导致现实与数字之间的界限将开始变得模糊

对于 AI 将会为人类带来怎样的未来这一议题,李飞飞从 AI 治理、政策制定与 AI 应用层面给出了具有建设性的观点。从宏观层面来说,她认为 AI 不只属于部分技术精英,而应该属于所有人,这也是她创立非营利性组织 AI4ALL 的出发点,即通过教育培养下一代 AI 技术专家、思想家和领军人物,并提高 AI 领域多样性和包容性。

在李飞飞看来,AI 的发展应该以提升人的能动性(agency)为目标,通过人与 AI 的合作赋能人类,为所有人打造一个积极的、以人为本的 AI 未来:

“人类能够创造近似‘上帝一样’的技术,从而改进我们所处的‘中世纪’式制度,并超越、或引导我们那‘旧石器时代’的情感,让它们变成创造力、生产力和善意。

学术头条在不改变原文大意的情况下,对整体内容做了精编,如下:

Reid:很高兴见到你。欢迎来到 Possible。

李飞飞:我也是。很高兴见到你和 Aria。

Reid:是什么让你有了开发 ImageNet 的想法?比如说,“啊,我们需要这么做。”

李飞飞:我很难给出一个非常明确的时刻,但差不多是在 2006 年,当时我正在深入研究如何使用机器学习算法来理解物体和图像。无论我把目光投向哪里,我都无法回避这样一个事实,即机器学习模型存在一个数学概念,叫做“过拟合”。这是指模型的复杂性与模型所使用的数据并不完全匹配,尤其是当数据--不仅仅是数据量,而是数据的复杂性和数据量--并不能真正有效地驱动模型时。当然,并不是所有模型都是一样的。我们现在知道,神经网络模型具有更高的容量和表征能力。抛开这些术语不谈,数据与模型之间肯定存在相互作用,而我(当时)看到,在每个地方,人们都不关注数据。

我们(那时)只关注模型。就在那一刻,我突然意识到:“我认为我们不应该只关注模型,或者说,我们关注的方式是错误的。我们需要关注数据,用数据来驱动模型”。当然,就在那时,我转到了普林斯顿大学任教。我接触到了一项名为 WordNet 的工作。WordNet 与计算机视觉毫无关系 但它是组织世界上各种概念的绝妙方法。而且,我也喜欢这个名字。然后顺理成章,ImageNet 也问世了。我非常强烈地相信大数据和视觉世界多元化表征的需求。

Reid:我是在你 AI 职业生涯的中点,从令人惊叹的 ImageNet 开始聊的,现在我们来谈谈 World Labs,从 ImageNet 转到 World Labs 上。World Labs 的理念是什么?你们正在构建的东西有什么是我们的未来方向、以及理解 World Labs 本身和 AI 趋势的关键部分?

李飞飞:是的,Reid,我们谈论过这个,对吧?我们最喜欢的话题——技术发展的方向。老实说,在我的职业生涯中,尤其是在 ImageNet 之后,我一直痴迷地思考一件事,那就是什么是智能,以及我们如何在机器上实现智能。在我看来,如果从人类智能的角度来看,这其实可以归结为两件简单的事情。

一是我们会说话。我们使用语言交流作为工具来交谈,组织起我们的知识并传递信息。另一个是——也是对我们意义深远的那一半智能是——我们会做事。比如,我们做蛋饼,我们徒步,我们和朋友玩乐,享受彼此的存在,这远远超出了我们所说的任何一句话,而这只需要我们能舒适地坐在对方面前。

还有,拿着一个啤酒罐,所有这些事情,这是智能的一部分,而这部分智能的真正基础,在于我们能够理解我们所生活的三维世界,感知它,并将它转化为一整套理解、推理和预测,这样我们就能在这个世界中做事。在我看来,这种能力被称为“空间智能”,是人类等智慧动物所具备的最基本的天赋能力,也就是处理三维空间的能力。

所以,ImageNet 的出现是因为我一直在探索如何给二维图像中的像素贴标签,而对人类来说,二维图像是三维世界的投影。因此你可以看到,这就是一个婴儿朝着理解我们生活的更完整世界--视觉世界迈出的第一步。而这个婴儿迈出的一小步至关重要,因为无论是对于人类、动物还是机器来说,理解这些物体和图像,给它们贴上标签都是关键的第一步

但现在,天哪,14 年、15 年过去了,我认为我们已经准备好进行一场更大的探索,几乎是一场全垒打探索,以解开智能最重要的另一半——也就是空间智能问题。空间智能之所以有趣,是因为它实际上包含两个方面:一个是物理三维世界,另一个是数字三维世界。我们从未真正能生活在这两者之间。但现在,空间智能可以成为一种统一的技术,让三维接地世界和数字三维世界都变得有意义。

Aria:所以,当我思考空间智能的前景时,你知道,如果你回到 1880 年——马车、未铺设的道路——你会觉得,这是一个完全不同的世界。但如果你回到 1980 年--好吧,就像人们开不同的车,但他们仍然住在同样的建筑里,仍然开着车。某种程度上来说,这个现实世界的机制是基本一样的。你认为在未来几十年里,你说的另一半智能会改变这一切吗?我们是否会看到现实世界的巨大转变,就像过去几年我们在数字世界看到的那样?

李飞飞:我认为会的,我认为现实与数字之间的界限将开始变得模糊。举个例子,我在高速公路上开车,如果车胎爆了,尽管我是个技术专家,我有种预感,这会给我带来很大的麻烦。但如果我能戴着一副眼镜,或者把我的手机对准汽车,对于爆胎这个问题,我只需要与装在里面的应用合作,引导我进行换胎,无论是通过视觉引导,还是通过对话或混合方式。

我认为这是一个非常普通的日常生活例子,它真正打破了物理三维世界和数字三维世界的界限。无论是更换爆胎还是做心脏手术,这样的技术都能为人们赋能,这对我来说是一个非常令人兴奋的想象。

Aria:所以你说,用大语言模型(LLM)来教自己一些东西,这个我一直认为是非常鼓舞人心的。就像我的孩子们总是说,“哦,我不学了,我数学很好,不需要再学了。”而我可以说,“不,不,李飞飞都在用 LLM 学习。我觉得你还需要继续学”。但是,当你谈论大世界模型(LWM)与 LLM 时,你是怎么看待这两者的?你如何向人们解释他们的差异,以及你认为未来会如何发展?

李飞飞:从根本上说,就像我说过的,一个是关于说的,另一种则是看和做。所以,从根本上说,它们是不同的模态。LLM 的基本单位是词库——无论是字母还是单词。而在我们所说的“世界模型”中,基本单位则是像素或体素。因此,它们是截然不同的语言。我几乎觉得语言是人类的语言,三维是自然的语言。我们真的希望AI算法能够让人们与像素世界进行互动,无论是虚拟世界,还是物理世界。

Reid:你的回答让我想起你引用过的一句话,社会生物学家 Edward O. Wilson 曾说 “我们有旧石器时代的情感,中世纪的制度,上帝一般的技术,这是极度危险的。”所以,在这样一个拥有自然语言思维、又需要教育大众的情况下,你觉得要怎样“反转”这个说法?或者说,在 AI 时代,人类有哪些机遇?

李飞飞:我仍然相信 Wilson 的那句话,也正因为如此,你和我以及我们的朋友们才一起创办了以人为本人工智能研究院(HAI)。如果我要反转那句话,我可能会这么讲:人类能够创造近似“上帝一样”的技术,从而改进我们所处的‘中世纪’式制度,并超越、或引导我们那‘旧石器时代’的情感,让它们变成创造力、生产力和善意。

Reid:那你认为要帮助人类实现这些理想,我们构建这种技术的关键是什么?重点是放在“同情心”上吗?还是说这是一个以人为本和人与技术交互共生的问题?如果想让科技和 AI 帮助我们实现更好的自我,你觉得下一步最该做的是什么?

李飞飞:我知道你为什么主修哲学跨学科专业(Sym-Sys)了,你的思考体现了哲学和技术的结合。我同意你的观点,就像前面引用的,我们几乎把“旧石器时代”当作一个负面的词,但它其实并不是一个负面的词,它是一个非常中性的词。人类的情感或者说人类的自我形象认知深深植根于进化,植根于我们的 DNA,这是不会改变的。我们的世界也正因为如此而既美丽又混乱。

因此,在思考技术以及未来人类与技术的关系时,我认为我们需要尊重这一点。我们需要尊重人类最根本的、根源于“旧石器时代”的自我。科技发展中,有一些事情真的需要尊重,我们越尊重它,越能成为更好的我们。一是尊重人的能动性。我认为其中一个关于 AI 的公共沟通问题就是我们经常在句子中将 AI 作为主语,而人类的能动性被拿掉了,比如“AI 能够治愈癌症”这样的句子。

我有时甚至也会不小心这样说。事实应该是人类将利用 AI 治愈癌症,而不是 AI 治愈癌症。还有说“AI 将解决核聚变问题”,事实是人类科学家和工程师将把 AI 作为解决核聚变的工具。更危险的说法是“AI 会夺走你的工作”,我认为我们真的需要认识到,这项技术有更多的概率来创造机会和工作来增强人类的能动性,这是我在意的非常重要的第一个基本原则。

第二个基本原则是尊重人类。每个人都希望身体健康、有生产力、在社会受人尊重。无论我们如何发展或使用 AI,我们都不能忽视这一点。忽视这一点是危险的,会适得其反。我认为,仅这两点就对指导我们发展这项技术至关重要。

Reid:我很喜欢你对人类能动性的深入思考。你能再多谈谈能动性以及让 AI 以人为本的重要性吗?以人为本的 AI 意味着什么?技术专家和技术公司应该如何思考这个问题?

李飞飞:对这个问题的讨论根植于这样一个坚定的信念:任何技术、任何创新都应是让人类向善的。这也是人类文明的弧光——每当我们创造出一种工具,我们都希望用这种工具带来更好的世界。当然,这也是一把双刃剑,我们可能会误用工具,会有不良的行动者使用工具。因此,即使看到技术和工具的阴暗面,也会促使我们加倍努力,让它们变得更好。至于如何让 AI 以人为本, HAI 的基本原则,以及我们一起在斯坦福创办它的根本原因就是,我们把 AI 视为一种强大的工具——一种文明性工具。我们最好尽早建立起一个将人类和人类利益置于核心的框架,我认为以人为本的 AI 最关键的一点,以及它应该如何指导每一家公司、每一位开发者,就是为人类赋能。

Aria:你已经在 AI 领域工作了很长时间,涉及过许多不同的方面。而一些人现在才刚刚了解 AI。你如何看待现在的 AI 创新——无论是从我们所处的位置,还是从开发者所面临的问题来看。你觉得要想解决这些问题、再上一个台阶,我们当下该做些什么?

李飞飞:我们正处于一个现象级的时刻。这是一个革命性的拐点,因为 AI 现在可以进入个人和企业的日常使用中。如今,我们这些早期的 AI 探索者在职业生涯初期的许多梦想都已经实现或即将实现。例如,公众常常说起“图灵测试”,而如今这几乎已经被解决的问题。虽然图灵测试本身不会是衡量智能的终极标准,但它曾经被视为一个极难攻克的标准,如今也已经被突破了。汽车能自动驾驶了,对吧?虽然还没有完全解决,但已经比 2006 年解决得多了。

所以,随着这些模型真正用于生产环境,被普通人和企业使用,我认为这是 AI 革命的一个非凡阶段。不过我也清楚地知道,我们身处硅谷泡沫中,我仍然认为放眼全球,很多人还没有跟上 AI 的发展速度。但我们确实看到了未来,看到了未来的走向。

Aria:我感觉很多听众会对你说的产生共鸣,AI 可能极大地提升人类能力,也可能带来巨大的积极影响,但我们确实需要担心那些负面后果,并希望能在正确的轨道上引导 AI。那从开发的角度看,你觉得我们需要怎么做才能确保 AI 走向积极的方向?如果你认为政府或者跨行业的合作是必要的,也可以谈谈这方面的想法。

李飞飞:说实话我认为有很多我们能做的,而且我们就应该尽快去做,早就该做了,但现在开始也不算晚,只要我真正投入去做。第一点,应该基于“科学”而不是“科幻”。过去有很多炒作的言论,比如 AI 会导致人类灭绝或者 AI 会带来世界和平——两种说法都更像科幻而非科学。所以,当考虑如何制定 AI 政策、对 AI 进行治理时,我们以数据、科学事实、科学方法为基础,这是非常重要的。

第二点,就像许多其他技术和工具一样,我们要在对人类产生影响的地方为 AI 的应用加上“护栏”,即把治理的精力集中在正确的地方,而不是阻止上游的发展。想想早期的汽车,它并不安全,没有安全带、车门,也没有限速。后来我们也确实付出了一些代价,比如人员伤亡。但我们并没有对福特或者通用汽车说“关停工厂”,而是建立了包括安全带、限速等的监管框架。今天的 AI 也是类似的,它是一项具有深远影响的技术,但也会伴随着风险。因此,我们应该关注的是,当 AI 应用于医疗领域时,我们该如何更新食品药品监督管理局(FDA)的监管条例?当 AI 应用于金融领域时,我们该如何设置监管护栏?所以,应用层面才是应该集中精力治理的地方

最后一点,我们需要明白,要让 AI 有一个积极的未来,就要有一个积极的生态系统。这个生态系统需要私营部门的参与,无论是大公司还是初创企业都非常重要。同样,也需要公共部门,因为公共部门生产公共产品。

在我看来,公共产品有两种形式。一是由好奇心驱动的创新和新知识。比如用 AI 做聚变研究、用 AI 治疗疾病、用 AI 赋能教师等等。很多这些想法都来自公共部门,就像 ImageNet 当初就来自于公共部门。二是,我们需要让教育更多年轻人、更多公众了解这项技术,而公共部门在从 K12(基础教育)到高等教育的领域承担着主要的社会教育责任。

这些就是我在 AI 治理与政策制定层面非常关心的内容。

Reid:你刚才的谈话其实已经有所涉及,不过我觉得可以再重点谈一下 AI4All ,因为你一直在做的另一件事就是确保 AI 不仅仅关乎斯坦福大学的教授、加州理工学院的博士和物理学家等技术精英,而是关乎所有人的。请你讲讲 AI4All 这个项目,以及它的使命和贡献。

李飞飞:AI4ALL 是一个非营利性组织,由我和我以前的学生、同事共同创立。它的任务其实是通过大学的暑期项目和实习,为来自不同背景的 K-12 学生提供接触 AI 的机会。我们的理念是努力实现公共利益。在 AI 的教育层面,我们知道 AI 将改变世界,但谁来改变 AI 呢?我们希望有更多元背景的人来使用这项技术,为各种伟大的事业开发这项技术,并从中受到启发。

因此,我们的项目一直面向女性,以及来自农村、城市贫困地区、历史上代表性不足的社区和背景的学生,让他们参加这些暑期项目。看到这些年轻人使用 AI 或研究 AI 、改进救护车调度算法,使用 AI 评估乡村社区的水质,真的令人倍感鼓舞。这仍然是一项小规模的工作,但我希望它能不断发展壮大,因为让更多不同的人参与到 AI 领域是一个非常重要的目标。

Reid:你也在医疗健康领域做了很多工作。AI 在医疗健康领域能做些什么?能谈谈你在医疗领域的工作,以及你对 AI 在这方面未来发展的期望吗?

李飞飞:正如我在我的书中写到,我对 AI 在医疗健康领域的应用充满热情,原因有很多。医疗健康领域绝对是以人为本的核心,这是一个非常庞大的行业,涵盖从药物研发、体外诊断的基础生物科学一直到临床诊断与治疗、医疗服务和公共卫生的很多节点。因此,令人兴奋的是,在这个系统的每一个节点上,我们会发现 AI 都能提供很大帮助。

我自己喜欢并关注的领域是医疗保健服务,关乎人类之间的互相帮助。在美国,护士的数量远远低于病患的需求量。这份工作非常辛苦,护士流失率很高,这方面有一些惊人的统计数据,比如在一个轮班中,有些护士光是取药、拿设备等平均就要走超过 4 英里路,或者是一个轮班中就要完成多达 150、180 项不同的任务。与此同时,还有病患因为缺乏足够的照顾而从病床上摔下来。分流重症病人和非重症病人方面也存在很多问题,更不用说那些独自在家生活的老人了,他们面临着独居、痴呆症恶化等风险。

因此,医疗保健服务领域需要大量帮助。我在过去十多年的工作中一直在研究使用智能摄像头,即非侵入式和非接触式摄像头,来帮助我们的护理人员关注病人的情况。如果他们躺在医院的病床上,可以关注他们的动向,防止跌倒;如果在家,要关注他们的行为、孤独感或营养摄入情况;如果在手术室,可以监测手术器械的使用情况,让护士不用不断清点器械来保证把物品不会遗留在病人体内。要关注护士每分钟都要清点的器械,这样我们就不会把它们遗失在病人体内。这种智能摄像技术我们称之为“环境智能”(ambient intelligence),目的是帮助医生和医护人员提升对病人的整体护理质量。

Reid:AGI 现在是一个经常被讨论的术语。我记得你好像曾经说过,你不确定 AGI 到底指什么,因为不同人给它的定义都不一样,像是各自的“罗夏墨迹测验”(Rorschach Test)。能否谈你对于 AGI 讨论的看法,让对于话题的讨论能更加理性而不是过于分散、众说纷纭。

李飞飞:这是一个既有趣又令人沮丧的对话。我真的不知道 AGI 意味着什么,因为我认为这个词是 10 年前从商业角度提出的,当时 AI 逐渐成熟,人们对它产生了很大的商业兴趣。最初这个术语提出的意图——我尊重这个意图——是在“AI”中加入“G”,即“general”,以强调 AI 的未来需要更具通用性的能力,而不是狭窄的能力。例如,今天的自动驾驶汽车就比仅仅能探测树木的摄像头更具有通用性,对吗?狭窄的 AI 只能完成一个非常特定的任务,而更通用的 AI 能应对多种任务,这的确是个实实在在的区别。

我之所以觉得自己一直没有完全搞清楚,是因为如果我回溯历史,AI 早期奠基人 John McCarthy 和 Marvin Minsky 从 1956 年那场夏季研讨会开始,所怀抱的梦想一直都是“让机器能思考,能帮助人类决策,甚至能自己做事”。没有人说过,“我们梦想的是仅用于检测树木的极其狭窄的 AI ”。标志 AI 这一领域诞生的就是“会思考的机器”这一提法。所以从这个角度来看,我们有着同样的梦想、同样的科学好奇心、同样的追求,那就是让机器能够执行极其智能的任务。从这个角度来看,我不知道应该称其为 AI 还是 AGI ,对我来说这是一码事。

Aria:对于你说的在 AI 能自己做事这方面,随着语音和对话式 AI 的进步,我感觉我们正在逐渐接近这样一种状态,和 AI 进行日常对话、让它帮我们做事。你觉得现在在生活中使用智能体(Agent)的方式,哪些是特别有用的,或者说可能让 AI 和语音技术在未来几年改变生活?

李飞飞:我很肯定地认为,通过自然语言分享知识,无论是搜索、构思还是学习,是一个非常强大的方式。我自己也会使用 LLM 来理解一个概念,理解一篇论文,提出一些我不知道的问题。最让我兴奋的是,我看到人们和孩子们把它作为一种工具来提高自己的学习能力。我想强调的是,无论如何,我们都要确保人的自我能动性,为人们提供良好的学习工具、为人赋能。我认为,随着这类强大工具能力的不断深化——我本人也在为此而努力——我们会越来越多地看到,协作能力让人类能够利用这些工具更精确地做事。我很期待看到这一切发生。

Aria:我认为你强调的这点很重要,这当然是正确的事情,但我们也会听到这样的说法:“这些 AI 开发者试图取代人类。我可不想每天对着屏幕 10 个小时”。我认为人与人之间的互动是非常关键的,对教学、社区、同理心等一切都很重要。在你的那本书《我所看到的世界》(The Worlds I See)中,有一个故事是关于一位数学老师的。你讲到了你的高中数学老师萨贝拉先生,说明了人与人之间的交流是非常重要的。那么,你能就这个话题再分享一下吗?他给了你哪些让你难忘的建议?

李飞飞:我在这本书里记录了我早年作为一个移民小孩的经历。我 15 岁来到新泽西,进入一所公立高中,也不会讲英语,这就是我人生旅程的开始。我很幸运,很快我就遇到了一位叫 Bob Sabella 的数学老师,他对我充满了尊重和无条件的支持。他不仅是我的数学老师,还成为了我的朋友,帮助我度过了我作为新移民的艰难的青少年时期,作为朋友陪伴着我,直到他去世。但他不是通过言语教给我东西。他从未坐下来和我说:“嘿,飞飞。AI 将主宰世界。让我告诉你,AI 要以人为本”。当时甚至没有这个说法。

他只是通过行动告诉我,归根结底,我们的社会、我们的生活的意义在于我们为彼此所做的积极的事情,我们所坚持的信念、所追逐的灯塔。在他的行动中,我体会到尊重和托举他人是一件美好的事情,即使那只是一个懵懂的、不会说英语的移民小孩。所以,我认为这种慷慨、善良和同情心是做人的核心。我从他身上学到的最大东西就是以人为本。

Aria:说得真好。那么,你希望人们经常问你的问题是什么?

李飞飞:我希望人们能多问我一些关于如何利用 AI 帮助人的问题。我可以就这个问题谈上几个小时,我在斯坦福和世界各地的许多了不起的同事都在致力于这一事业,我不清楚他们具体正在做什么,因为他们都是各自领域的专家,但至少我可以给人们指出他们的工作方向。

Reid:你自己所处的行业之外,你有没有从哪些地方看到了进步或者发展势头,并对你有所启发?

李飞飞:人文学科对能源的关注确实给了我很大启发。我想我还是不能完全脱离 AI 来讲,我觉得即使是 AI 的发展,也在推动非常现实的能源问题,例如电力。我认为环境的变化以及全球能源民主化是非常重要的,我们不能总是依赖化石燃料。因此,能源领域的许多进步和全球运动都是令人激动的。

Aria:最后一个问题,你认为如果一切会向着利于人类的福祉发展,未来 15 年可能发生什么?实现这些可能的第一步是什么?

李飞飞:我希望看到全球在知识、福祉和生产力上迎来增长,特别是对于共同繁荣、共享成果的强调。我之所以要强调这一点,是因为在技术方面,我是一个乐观主义者。我知道技术可以帮助人们。我知道,如果我们使用得当,它可以发现新知识,帮助我们创新,提高我们的福祉。但我认为重要的是,我们要吸取之前反复尝到的教训,那就是我们需要共享这些繁荣,需要使这种利益成果惠及所有人

来源:学术头条

相关推荐