张亚勤展望AI未来:高考怎么变?每周工作两天?中美竞合走向?

360影视 动漫周边 2025-05-13 00:30 1

摘要:从12岁考入科大的少年班,到最年轻的电子工程师协会会士(IEEE Fellow),再到微软亚洲研究院的院长,张亚勤几乎经历了从上世纪80年代开始的那场以个人电脑和互联网为起点的信息革命中最为波涛汹涌的30年。

5.12

知识分子

The Intellectual

从12岁考入科大的少年班,到最年轻的电子工程师协会会士(IEEE Fellow),再到微软亚洲研究院的院长,张亚勤几乎经历了从上世纪80年代开始的那场以个人电脑和互联网为起点的信息革命中最为波涛汹涌的30年。

然后,他曾担任院长的那个微软亚洲研究院成了业内公认的中国人工智能领域的“黄埔军校”,他自己也把关注集中到了一个代表未来的新兴领域——人工智能。2014年,他加盟百度担任总裁,主推人工智能、大数据与云计算(ABC), 无人驾驶, AI芯片等新技术。2020年,他加入清华大学,成立清华大学智能产业研究院(AIR)并担任院长。

走过曾经波涛汹涌的信息革命,站在这场新的技术革命的潮头,张亚勤是参与者,也是观察者。而今,他关于这个AI时代的新书《智能涌现》刚刚出版,在书中,他讲述了自己亲历的这场硅基智能的涌现。从整个人类史的视角,他重新审视这场由AI带来的第四次工业革命,甚至开始思考:当机器开始掌握“创造”的权柄,人类文明将走向技术乌托邦,还是失控的深渊?

这是一个技术乐观主义者,展望那个即将到来的AI时代,张亚勤说:普通人“一周只需工作两天”,“只需要2成的人工作,8成的人只要享受生活就行了”,“全民发钱”的基础收入计划,也许会是个办法。

然而,当被问到:面对未来,内心有过担心或者恐惧的时刻吗?

张亚勤谈到了“失控”,那是令这位理科男内心觉得恐惧的东西,比如:“无人车失控了,如何处理?”然而,对今天更多的AI失控,张亚勤认为,都还在可控范围,因为今天的AI“还没有真正进入到物理领域,”其失控的表现也不过是“不实的虚假信息”。

“目前的AI大多在信息智能领域,容错率更高。但等到我们进入物理世界或者生物世界,我们就需要更加谨慎了,(那里),可控性要求更高。”

数日前,在一场采访中,张亚勤把智能分为了信息智能(GPT、DeepSeek)、物理智能(自动驾驶、机器人)和生物智能(脑机接口),并认为,我们会顺次的,用5年、10年,15-20年的事件,分阶段达到最终的AGI目标。届时,人类大脑将得到全方位的拓展,甚至“未来会有一个新的物种”。在这位AI 研究者的眼中,最终,人与AI融为了一体,那真是一个大胆又魔幻的场景,我们的谈话就从这里开始了。

撰文 | 李珊珊

● ● ●

AI不会产生意识

知识分子:您提到过一个实现AGI路线图,人类会达到三个智能的里程碑,信息智能(GPT、DeepSeek)、物理智能(自动驾驶、机器人)和生物智能(脑机接口)最终达到AGI的目标,在这个过程中,最大的障碍可能出现在哪个阶段?

张亚勤:这三个阶段中,最大的难点在于生物智能时期。

生物智能包括碳基和硅基的接口,也就是我一直强调的,未来是(物理和生物上的)HI+AI (人类智能+人工智能)。然而,在这种新的情景下,当我们将人的智能与机器智能融合在一起时,人类的意识如何控制(植入体内的)AI,AI与人类如何和谐共处,都是全新的挑战。这可能不仅仅是算法、技术问题,还包含伦理和治理等方面的问题。

知识分子:很多科学家,甚至人工智能领域的专家等都曾提到过人工智能(最终)会产生意识,您怎么看?

张亚勤:我认为(人工智能产生意识)这种情况不会发生。我们现在的算法都是基于统计数据,我不认为目前的路径或者目前硅基所用的这些算法会产生意识,这些东西只会产生一个非常聪明、能力很强的AI智能体,但它还只是工具,本身并不能产生意识。

虽然我无法严格证明这一点,但要知道,目前地球上的硅基智能(我们联网的电脑等)计算和存储能力已经远超过人类的水平,然而,它们至今从未有过生命意识的迹象,也没有更高层次的情感迹象。

我们人类目前对大脑的了解不到10%,我们不了解意识如何产生,也不知道意识产生的原因是什么,在这种情况下,如果认为人类开发的产品会有意识,就会存在一个悖论。

当然,我坚持硅基智能不会产生意识,一部分原因是出于经验,另一方面,也许这是某种哲学信仰,信仰至少占一半吧。AI可以帮助我们做许多事情,但它没有自我意识,没有自我价值,它的意识和价值都应该是依附于人类的。

当然,还有一个情况是:如果脑机接口出现之后,机器逐渐了解了我们的思维模式和意识,情况会不会不一样,我并不清楚。

知识分子:硅基智能难道不会自己进化产生意识吗,尤其是产生那种反抗人类或者奴役人类的意识?

张亚勤:我并不担心。我担心的是目前我们的算法或者路径会产生两个问题,一个是我们所设计的智能体在工作中失控了,由于我们对算法不够完全了解,这(种失控)是可能会发生的事情。另一个麻烦是:大模型智能体被坏人利用了。

我从不担心AI会产生意识并且伤害人类,我更担心的是AI的失控和滥用。后者就要求我们在每一步,无论是研究、开发,还是制定政策规范,都要考虑到红线。什么可以做,什么不能做,要有一个界限。

知识分子:您提到脑机接口的情景下,AI会和人类的融合,但AI与人类在节奏上有很大差距,如何融合?

张亚勤:我最近与人讨论,也提到过这一点,人类的DNA是经过了几十万年上百万年的演化产生的,这个过程很慢,所以,我们不论是生活还是思考,都希望有一种更慢、更和谐的方式,更自然的节奏。但机器不同,目前AI进化的节奏越来越快,还叠加上越来越多的数据、越来越多算力的投入,那就更快了。碳基和硅基融合之后,这些节奏上的差距,就成了问题。

我们希望的一种方式是:一些AI更擅长,但人类不喜欢的工作,由AI助理快速完成,而另一些,比如,思考、娱乐,甚至,体育锻炼,与朋友家人和亲人相处,按照我们人类自己的节奏,慢慢完成。这将是一种好的人机相处方式,也是人类+AI这个未来新物种的一种存在方式。

当然,要做到这一点并不容易,10-15年之前我就在讲,人类不要被三屏(手机、电脑、电视)奴役,而目前互联网和AI的发展更是几乎“侵入”了生活的方方面面。我认为,从现在开始,人类就得思考自己要做什么,我们要学会控制节奏,找到人类的主宰性。

中美在实现L4级无人驾驶的时间上会基本同步

知识分子:您提到过无人驾驶可能会在5年内实现,您认为目前制约自动驾驶商业化的最大障碍是什么,是技术的成熟度还是社会的接受度?

张亚勤: 技术的成熟度和社会的接受度都是巨大的挑战。技术的发展需要时间,社会的接受也需要时间。

虽然像萝卜快跑和谷歌的Waymo已经在特定场景下进行了大量测试,目前已经在旧金山和武汉等城市开始L4运营,但目前大多数车型仍处于辅助驾驶的L2或L2+的水平,离真正的L4级的自动驾驶尚有很大差距。尤其是在城市道路的复杂场景中,技术仍不够成熟,车辆更多是提供高级辅助驾驶功能,辅助人类做决策。这意味着驾驶员仍需保持手握方向盘、眼睛看路的状态。

人类社会对技术的敬畏心仍然不可或缺。我们需要学会如何与机器和谐共存,而不是完全依赖技术。无人驾驶的普及不仅是技术问题,更是社会心理和文化适应的过程。

知识分子:您曾经提到自动驾驶安全的几个要素,排在第一位的是智能驾驶决策模型的可解释性。从这个角度看,黑箱大模型框架是否适用于自动驾驶?还是我们需要一个更可解释的模型,这样才能更安全并且更能被大众接受。

张亚勤: 这是一个复杂的技术问题。当前的大模型端到端架构本质上是一个统计模型,许多决策过程我们并不完全理解。我们在AIR研究院的研究方向之一,就是让AI的驾驶行为决策更加透明。

但另一方面,尽管大模型的决策过程难以解释,从结果来看,它们往往是正确的。放弃大模型可能意味着失去目前最有效的解决方案。这就像人类的大脑,我们对其理解可能不足10%,但这并不妨碍我们每天依赖它做出正确决策。

目前的自动驾驶系统通常结合了大模型和规则兜底的安全机制。大模型负责核心的智能决策,而规则兜底部分则用来补足大模型无法解释的部分,提供额外的安全冗余。随着对智能驾驶决策系统的理解加深,未来这些规则兜底的部分可能会逐渐减少,但在此之前,它们仍然是不可或缺的。

知识分子:中国和美国哪个国家会更快地实现和推广普及L4级无人驾驶?目前的情况下,中美在无人驾驶方面还有合作共赢的可能吗?

张亚勤:我认为,中美在实现L4级无人驾驶的时间上会基本同步。虽然美国做得很好,但是整体来讲,中国的规模会更大,大规模商用方面,中国可能会更快实现。

在无人驾驶领域,中国有几点优势:第一点是基础设施比如V2X,我们比美国好;第二点,美国的电动车发展并不好,而我们的电动车普及速度则非常快。第三点,我认为中国的普通民众心态更开放,对新技术的拥抱比欧美都要好很多。

目前,尽管中美在智能驾驶领域的直接合作面临挑战,但基础研究的共享和学术交流仍有很大的合作空间。虽然公司间的合作可能受限,但开源代码、算法和学术论文的共享依然在推动技术进步。中美在基础研究领域的合作,虽然客观上有各种不确定因素,但基础研究领域,仍然是有共赢空间的。

中美都是AI第一梯队的国家,

美国的顶尖人才多一些,

中国的优秀年轻人多一些

知识分子:大家都很好奇,DeepSeek没有出现在高校和顶尖研究机构以及大公司,而是出现在了一家小公司,甚至一个量化公司?

张亚勤:这并非偶然。DeepSeek的出现正是中国创新机制多元性和包容性的体现,一家并不知名的小企业,能够做出如此大的创新,这本身就是一件非常不起的事情。DeepSeek的诞生,给整个行业注射了一剂强心针。

另外,DeepSeek的成功也离不开多年来在人才培养方面的积累。DeepSeek团队中有100多名中国本土教育培养出来的年轻人,这是我们国家长期以来重视教育的成果。我们AIR研究院也有学生在DeepSeek团队中,而且和Deepseek共同合作论文,他们都是很优秀的学生。

DeepSeek这种创新模式在学校中确实很难实现。因为尽管DeepSeek非常高效,但仍需要使用大量GPU,学校因为算力资源往往受限,无法完成这种任务。很多大公司虽然拥有算力,却更多地在关注如何追赶OpenAI,Scaling Law(规模定律)深入人心,大家都在堆算力,堆数据。在这种情况下,DeepSeek选择了不同的路径,这种差异化创新非常值得肯定。

知识分子:在您的眼中,中美在AI领域的人才储备是个什么情况?

张亚勤:中美都是AI领域第一梯队的国家,在人才方面,我认为美国可能顶尖和资深人才多一些,而中国则是优秀的年轻人多一些。

我们的优势是学生多。而AI领域的一个特点就是百分之八九十的新算法、新技术是过去5年出现的,这种情况下,刚毕业的年轻人有很大的优势。所以,你可以看到,过去5年间,中国AI人才的质量和数量都有大幅度提高。

目前,确实中美之间的交流合作会存在一些挑战,但在基础研究方面,大家还是能够交流的。我希望不要出现脱钩,但如果真的出现了,中国也不用害怕。我们现在包括老师、学生、产业界,乃至整个国力已经达到了一定的程度,很多问题我们可以自己解决。

当然,我还是希望全球化,全球化对中美两国,对全世界都是利好,没有了全球化和自由沟通,(科研资源)会有很多浪费。

知识分子:作为一个关注产学研的领导者,您如何概括DeepSeek的创新路径?

张亚勤: 我认为DeepSeek首先是一个了不起的工程和技术创新。其次,它是个产学研合作的范本,DeepSeek团队里人才非常多元,有清华学生,有各种顶尖高校的毕业生,也有经验的工程师,这是产学研的一个特别好的合作方式。

现在产学研新的模式往往需要从0到1再到n进行一体化研究。在过去,我们可能需要一个机构专门进行从理论到应用的转化,再到公司(市场)。但在AI时代,我们有了一种新的模式,新的模式中,这些转化过程已经内化、连接在一起了。DeepSeek的实践正是这种新产学研模式的缩影,也是我们在AIR研究院希望实现的目标。

知识分子:您提到AIR,它的使命是什么?能否详细讲讲?

张亚勤: 我是2020年创立的清华大学智能产业研究院(AIR),AIR是面向第四次工业革命的国际化、智能化、产业化的研究机构。AIR的使命是利用人工智能技术赋能产业升级、推动社会进步。通过大学与企业创新双引擎,突破人工智能核心技术,培养智能产业领军人才,推动智能产业跨越式发展。

AIR的科学家们不仅具有扎实的科研积累,且具备丰富的产业背景,许多人在大公司担任过顶级架构师,或管理过跨国企业。我们80%以上的科研项目是与企业合作的,比如与百度合作研究无人驾驶、与字节跳动(豆包团队)合作大模型研究,以及与阿里合作研究AI智能体。这些合作不仅让从0到N的转化更加顺畅,也让我们的学生能够直接参与顶级企业的重要项目,在实践中锻炼自己。

我认为,培养人才的最佳方式不是单纯上课,而是让学生通过科研帮助企业解决未来的问题。这种方式不仅能提升学生的实践能力,也能让他们在毕业后更好地适应产业需求。我们要求教授们具备这样的心态、经验和能力,这也是AIR的教育理念。

AI时代,我们仍然需要高考

知识分子:在AI时代,教育会变成什么样子?大学们目前已经行动了吗?能否以清华为例讲一讲?

张亚勤: AI时代,静态的知识变得越来越不重要了,唯一重要的是提出问题、质疑、批判性思考能力以及创新能力。在这种情况下,我们的教育应该让每个人变得更加不同,而不是越来越相同,学生需要有更多自己的观点和判断力,而不仅仅是标准答案,原来的教育体系都需要重构。

目前,全球各国政府都在积极推动教育体系的变革,中国的高校和教育部尤其积极,且思维十分开放。相比之下,美国许多学校却拒绝使用AI工具,我认为这是错误的。我们生活在一个AI无处不在的时代,学会充分利用AI工具至关重要。

以清华为例,我们在AI教育改革方面已经做了很多尝试。目前,清华配备了AI助教,协助教师备课和答疑。我们还重新设计了上百门人工智能课程,包括面向全校的通识课程和针对人工智能专业的专业课程,其中的许多是全新的课程。

此外,我个人认为,“AI + X”的交叉学科模式,对AI时代的教育也至关重要。未来,纯粹研究AI的人将是少数,更多人需要将AI应用到生命科学、智慧交通、新能源和先进制造等领域。如何将AI与其他领域结合,是未来教育的重要课题。

知识分子:高考那种的标准化考试还会存在吗?

张亚勤: 标准化考试可能会减少,但高考这种高层次的选拔考试仍有必要。高考不仅是考试,更是一种相对公平的人才选拔方式。未来考试形式可能会变,我也不知道将来会变成什么样子,但公平性必须保障。高考是一种社会规则,它部分地确保了农村和边远地区的孩子也有机会接受优质的教育。我反对完全取消考试的选拔方式,因为我觉得那样的话,可能会不公平,农村孩子可能就更没机会了。

知识分子:那人类教师呢?还有存在的必要吗?尤其是上大课的那种人类教师?

张亚勤: 虽然AI给教育带来很大变革,但是它仍无法替人类老师。教学,不仅是传授知识,还是一种引导、学习和人与人之间的交互,这都是AI无法替代的。但AI可以作为教师的辅助工具,比如在清华,现在有AI助教。未来每位老师都会有AI助教,每个课程都会有AI助教,每个学生都有AI助理,它们可以帮助学生更好地呈现静态的知识,但人类老师的角色仍不可或缺。

知识分子:教育领域使用AI可能会带来一个很大的问题,就是学生过分依赖AI,导致丧失了思考的能力?

张亚勤:AI给人类带来的最大的挑战有两个,一是拒绝AI;二就是过分依赖AI,失去了个性、观点和判断力。因此,学校教育的重点是教会学生如何使用AI工具,同时引导学生保持独立思考和发挥创造力。

我们不能只会依赖AI,无论什么时候,人类要保持一种状态,没有AI,人类仍然能够生存,但有AI,我们可以做得更好。在这方面,我同样是一个乐观主义者。

20年后,人类每周只需工作两天

知识分子:您提到了公平,但目前有声音认为,AI可能会加剧社会不平等,比如,有些人(被AI替代)失业了,有些群体可能被这个AI时代的发展遗忘了,这种情况您怎么看?

张亚勤:从宏观上看,AI的发展方向是积极的,但过程中确实会出现问题。比如,AI翻译和AI客服的出现,会让相关行业受到冲击;无人驾驶的成熟,会让司机面临失业。这种现象我们在不久之前就曾经经历过,比如打字员和电梯员职业消失。

某些群体可能因缺乏相关技术和知识而失业,这是整个社会面临的巨大挑战。政府、企业和教育界应共同努力,提供公平的教育和政策支持,帮助这些人适应变化。公共政策和伦理治理至关重要。但我不赞成像欧洲那样,一开始就用规则阻碍AI发展。我们要在发展中讨论,保持创新与治理的平衡。AI带来的收益大于问题,我们可以引导AI向着更有利于社会的方向发展。AI如同互联网,既是好东西,也可能被滥用。技术是中性的,关键在于什么人来用,做什么用。

知识分子:您提到未来10年机器人的数量会超过人类,也有AI学者曾经提到,目前有8成的人在工作,未来会倒过来,只有2成的人在工作。这种情况,不可避免地带来的一个后果是很多人会失业,对于这种情况,我们该如何应对?会出现一个新的社会范式吗?

张亚勤:我完全同意这个观点,将来可能只需要两成的人工作。这在人类历史上看,非常自然。回顾历史,蒸汽机出现后,人类的生产率有了指数级的提升,我们的工作时间也发生了很多变化——早期是一周工作7天,然后6天,再后来是5天,现在有些地方是4天,我觉得,可能20年之后我们一周工作两天就够了,剩下的5天不用工作,做点自己喜欢的事情就好了。

这是机器帮助人类工作的一个过程,先是体力,后来到信息,最后到智力。如果我们能控制好节奏,那么人类的整个生活会变得越来越好的。大部分人都可以有事做,又不需要做自己不喜欢的事情。

我认为一个理想的未来社会是:大部分人按照自己的兴趣去工作,而不是为了生存。为了达成这一点,很多人做了一些规划,有一些有趣且存在争议的话题,比如:国民基础收入计划(UBI计划,即:为每个人发钱,让大家都有可以维生的基本收入)。

过去我听说这个计划时是比较反对的,但这几年,(目睹了AI技术的发展),我的观点有点变化了,当社会生产力极大发展时,大部分人已经不需要工作了,我认为,整个社会是可以为每个人发放基础收入的。有了这种收入之后,生活可以兜底,工作就真的变成了自愿的,从兴趣出发。不用担心大家不工作,因为在一定程度上,工作是生命的意义,我们需要创造、与人交往、发明和新的体验,这是人类的意义,这些东西不能被替代,但我们可以不需要为了生存而工作。我希望这是我们20年内可以达到的目标。

BOOK TIME

《智能涌现 : AI时代的思考与探索》

张亚勤 著

中信出版社

赛先生书店可开发票,请在购书备注中留下开票信息(抬头、税号和电子邮箱),确认收货后,由出版社开具。

来源:知识分子

相关推荐