伯克利对齐大师罗素:AGI 会让地球上所有人达到西方中产阶级的生活水平,全球 GDP 将增长约 10 倍 | AI 2025

360影视 2025-01-10 22:42 2

摘要:本篇内容选自伯克利大学教授 Stuart Russell 的一场演讲。他以出人意料的角度切入 AI 伦理问题,将现代 AI 比作“一只会吃人的巨型飞鸟”,警示我们正在打造一个既不了解其运作机制,也无法预测其行为的黑箱系统。

在追逐人工智能的狂奔中,我们是否曾停下脚步思考:当我们创造出比自己更强大的存在,凭什么认为能永远控制它?

本篇内容选自伯克利大学教授 Stuart Russell 的一场演讲。他以出人意料的角度切入 AI 伦理问题,将现代 AI 比作“一只会吃人的巨型飞鸟”,警示我们正在打造一个既不了解其运作机制,也无法预测其行为的黑箱系统。

整理丨王启隆

出品丨AI 科技大本营(ID:rgznai100)

《新程序员》曾和斯图尔特·罗素(Stuart Russell)教授当面聊过一次。这位加州伯克利大学的教授最广为人知的成就是编写了人工智能领域的经典教科书《人工智能:现代方法》,对于 AI 专业的大学生(尤其是美国大学生),这本比砖头还厚的书会一直陪伴他们直至毕业。

采访时,罗素教授有个观点令人印象很深:“每个人都可以设计出反乌托邦的世界,但我尝试过让不同领域的专家来详细描绘一个乌托邦的世界,没人能给出成功的答案。

这句话初听可能比较晦涩难懂(我也是后来整理文章时才知道他真正的意思)。

为了理解这句话,我们得先了解罗素的立场。以 2024 年的诺贝尔物理学奖得主,“AI 教父”杰弗里·辛顿(Geoffery Hinton)为代表人物,罗素正是典型的“危机派”。他和辛顿一样常年奔赴各种讲座,宣传 AI 可能潜在的风险。斯图尔特·罗素,是人工智能对齐(AI alignment)领域的一位大师,他的工作就是让人工智能“不走歪路”,使其朝着预期方向发展。

AI 三教父和罗素

去年世界知识论坛上的一场演讲中,罗素教授以“AI 伦理学”为题详细讲述了我们当前面临的问题,并且在演讲结尾再次抛出了这句话:“我曾多次组织研讨会,邀请哲学家、AI 研究人员、经济学家、科幻作家和未来学家们来描绘一种理想的共存方式。但每次都以失败告终。这可能意味着根本就不存在完美的解决方案。”

现在这句话就好理解了。人类对于未来的想象往往倾向于极端——要么是世界末日,要么是完美乌托邦。但在罗素看来,现实里真正困难的是找到一个平衡点,一个人类与 AI 和谐共存的未来。

当然,罗素教授也做出了一些积极的预测,他认为有了 AGI 的帮助,我们可以以更大的规模、更低的成本,让每一个人都能享受到这种优质生活。具体来说,就是让地球上所有人都达到当前西方中产阶级的平均生活水平,并使全球 GDP 增长约 10 倍

比较戏剧性的是,去年这场演讲的时间(9 月 9-11 日)恰逢 OpenAI o1 模型发布的前夕(9 月 13 日)。正如辛顿与罗素这两位“先知”所预见的那样,人工智能正以惊人的速度向着不可知的深渊狂奔。

如今,OpenAI 的 o3 模型蓄势待发,而 Anthropic 深藏不露的新模型则在某些任务上已经超出了研究人员的预期(可以参考 Anthropic 在去年训练出不可控的 Claude 3.5 Opus 后的剧烈反应)。在这个 AI 能力不断突破的时代,罗素教授在演讲中试图回答一个根本性的问题:人类是否真的准备好与如此强大的 AI 共存?在他看来,这不仅仅是一个技术问题,更是一个关乎人类命运的重大挑战。接下来,让我们一起回顾这场演讲的全文(以下是罗素教授的第一人称)。

我们没造出飞机,而是造出了巨鸟

今天虽然我们要探讨的是 AI 伦理学(The Ethics of AI),但我想更多地从常识的角度来切入这个话题。因为在我看来,我们当前面临的诸多重大问题,本质上并非伦理问题。让我来解释一下这句话的含义。

尽管正式确立是在 1956 年,但如果回溯人工智能的发展历程,其实它早在 20 世纪 40 年代就已经开始萌芽。纵观 AI 发展史,其终极目标始终如一:打造一种在所有关键维度上都能超越人类智能的机器,也就是我们现在所说的 AGI(通用人工智能)。

在这个领域发展的大部分时间里,我们一直忽视了一个至关重要的问题:如果真的实现了这个目标,会发生什么?如果我们在这个追求中取得了成功,这无疑将成为人类历史上最具影响力的里程碑事件。稍后我会详细阐述为什么这会是如此重大的转折点。但其实道理很简单:人类之所以能够主导这个星球,正是因为我们拥有智能。我们的文明,正是智能的产物。那么,如果我们创造出一个新的物种,一个在智能上远超我们的存在,会发生什么?这势必会成为人类文明的转折点。

正如谷歌 DeepMind 首席执行官 Demis Hassabis(2024 年诺贝尔化学奖得主)所说:“我们要先攻克 AI,然后用 AI 来解决所有其他问题。

然而直到最近,我们都没有认真思考过一个问题:“我们是否已经成功了?”

没有人问这个问题。

但就在一年前,我的教科书(《人工智能:现代方法》)合著者 Peter Norvig 发表文章称,我们实际上已经创造出了 AGI。他用了一个很形象的比喻,就像 1903 年莱特兄弟的飞机,虽然它们不像现在的客机那样舒适,没有配备完整的酒吧,无法享用香槟和餐后饮品,但它们确确实实就是飞机。从 1903 年至今,飞机的变化不过是变得更大、更舒适、更快速,但起飞的基本原理早已在那时确立。

那么,我们现在是否真的已经实现了 AGI 呢?就像已经造出“"莱特兄弟阶段”的通用人工智能?对此,我的答案是否定的。当然,我也可能判断有误。

说实话,对于我们现有的 AI 系统,我们确实还没有完全搞清楚它们是如何运作的。这一点与莱特兄弟的飞机形成了鲜明的对比——莱特兄弟非常清楚他们的飞机是如何工作的,因为那是他们亲手组装的作品。他们了解发动机的每一个细节:需要多大的功率才能产生足够的推力,才能达到所需的速度,才能产生足够的升力让飞机离地。他们在飞行之前就已经完成了所有关于推力、阻力、升力和功率的基础计算。也就是说,在飞机首飞之前,他们就已经在理论上证实了它能够飞行。

反观我们现在的 AI 系统,它们就像一个巨大的黑匣子。从技术角度来说,这个系统大约由一万亿个可调节的元素构成了一个庞大的电路网络。我们对这些元素进行了数以万亿计的微小随机调整,直到系统表现出近似智能的行为。

这种情况就好比,假如莱特兄弟当年没有选择设计和制造飞机,而是转而进入鸟类育种行业,试图培育出越来越大的鸟,直到培育出一只能够载客的巨型飞鸟

然后他们带着这只鸟去联邦航空局申请认证,对话可能是这样的: “能否为我们的巨型飞鸟颁发认证?”

而航空局会回答:“抱歉,你们的鸟还在伤害乘客,随意把人扔进海里,我们既不了解它的运作机制,也无法预测它的行为,所以无法给予认证。”

这就是我们目前的处境。在我看来,这些“巨型飞鸟”永远不可能成长到能够稳定承载数百甚至数千名乘客的规模,我们也永远无法真正理解它们的工作原理。它们可能永远也无法突破音障,或者达到类似的技术突破。我们需要在两个方面取得进一步的突破:一是能力本身,二是对这种能力的理解。因为如果我们无法理解这些能力,那么这些能力对我们而言就毫无意义。

耗尽全宇宙的数据都无法通过当前方式实现 AGI

接下来,让我们回顾过去十年,也就是深度学习的时代。

深度学习的本质是什么?简单来说,就是从一个包含大量可调节参数的系统开始,通过不断调整这些参数,使系统最终的行为能够完成我们期望的任务——可能是识别图片中的物体,可能是将中文翻译成英文,又或者是其他各种各样的任务。

事实上,机器翻译是这项技术首个真正具有重大影响力的应用。我还记得第一次使用它来处理一些法语文件时的震撼。因为我在法国有一套公寓,经常需要处理各种法语文件,这个系统完美地将这些文件翻译成了英语。虽然说即便翻译完我还是不太理解这些法律文书的具体含义,但翻译质量本身确实令人印象深刻。

另一个具有里程碑意义的突破是 AlphaFold。它是一个能够根据氨基酸序列预测蛋白质结构的系统。在结构生物学领域,这个问题已经困扰科学家们数十年之久。此前的实验方法不仅耗时耗力、成本高昂,而且只能应用于为数不多的几类蛋白质。但这个计算方法的出现,就像是为生物学家们打开了一扇新的大门——它让他们能够预测数百万种蛋白质的结构,而不是仅仅局限于几百种。这对整个生命科学领域都是一个革命性的贡献。

机器学习在模拟领域的应用,是另一个重大突破。要知道,模拟技术在现代社会中可谓无处不在:我们用它来模拟桥梁的受力情况、飞机的气动性能、船舶周围的流体流动、管道中的物质运输,甚至是人体动脉中的血液流动。这些模拟过程往往需要消耗巨大的计算资源,比如在超级计算机上模拟血流状况,可能需要持续好几周的运算。但借助机器学习方法,我们可以将这些需要数周的计算压缩到几秒钟内完成,而且保持同样的精确度。这一进展极大地推动了气象预报、气候模型、工程设计等诸多领域的发展速度。

还有一个引人入胜的例子是生成式设计。大家可能对 DALL-E、Midjourney 和 Stable Diffusion 这些系统比较熟悉,它们可以根据文字描述生成图像。

说个趣事,我在英国上议院演讲时,曾要求系统生成“上议院议员进行泥地摔跤”的画面,结果确实完成得不错,只不过画面中四位正在摔跤的议员加起来只有五条腿。但在实际应用中,这项技术的价值远不止于此。传统上,工程师们使用 CAD 工具设计结构时,需要先创建基础形状,然后将这些形状组合起来,再进行结构分析,往往会发现要么太脆弱,要么太重,要么强度不够。而现在,我们可以让 AI 系统直接根据设计要求提出解决方案。这些生成式设计往往会创造出优雅而富有生命力的有机结构,其性能常常超出人类设计师的预期。

然而,在这些令人瞩目的成就背后,我们也要直面 AI 领域的一些明显短板。比如自动驾驶汽车,这项技术至今仍未能完全实现。说来有趣,我在 1993 年就开始研究自动驾驶技术,而第一辆自动驾驶汽车早在 1987 年就在德国高速公路上进行了测试。但是时至今日,已经过去了 37 年,尽管各大公司一再承诺我们很快就能买到真正的自动驾驶汽车,但现实是这样的产品仍然没有真正面世。期间发生过致命事故,有车辆陷入湿水泥中无法动弹,还出现过各种各样的问题。

更令人意外的是,在本该是计算机强项的算术运算方面,AI 也表现出了明显的局限性。这听起来很难让人相信,因为计算不是应该是计算机最擅长的领域吗?但事实是,像 ChatGPT 这样的大语言模型,即便接触过数以百万计的算术例子、解释和教程,仍然无法保证准确进行基础的算术运算。

从表现来看,这些模型似乎并没有真正理解算术运算的基本概念。相反,它们更像是在使用一种查表的方式来解决问题。每当我们将电路规模扩大 10 倍,提供 10 倍的训练数据,它在算术运算上的准确性也只能提高一个数量级。这种特征非常典型地说明它们在使用查找表的方式工作,而不是真正掌握了如何一列一列地加数字并处理进位这样的基本原理。这确实让人有些失望。

更让人惊讶的是,事实证明它们也并没有真正学会下围棋。我们原本以为在 2017 年 AlphaGo 击败人类世界冠军后,它们的水平就已经远超人类了。从等级分来看,最强的围棋程序达到了约 5200 分,而人类世界冠军的等级分大约在 3800 分左右。按照这个差距,理论上 AI 应该能在 100 局比赛中赢下 99 局甚至全部 100 局。

但就在几个月前,我们发现这些程序实际上并未正确理解围棋的基本概念。它们无法准确理解相互连接的一组棋子构成的“棋组”概念。我们发现某些类型的棋组,尤其是环形棋组,AI 完全无法识别。在这种情况下,它会变得非常混乱。我们甚至找到了一些方法,可以让这些所谓“超人类水平”的围棋程序莫名其妙地放弃 50 到 100 颗棋子,最终输掉比赛。现在,即便是业余棋手,而不是职业选手,都能在让 AI 九子的情况下,连胜它十局。这说明它们并非真的达到了超人类水平,只是让我们误以为它们做到了而已。

基于以上种种情况,我认为我们还需要更多的技术突破,特别是在提高 AI 学习效率方面。人类学习新知识往往只需要一两个,最多不过五到十个例子就能掌握。但对计算机来说,可能需要一百万、甚至十亿个例子才能学会同样的内容。这种学习方式显然难以持续:因为从根本上来说,整个宇宙中都不可能存在足够多的数据来支撑 AI 通过这种方式达到超人类水平。

因此,我们确实需要新的突破。但同时我们也要承认,这些突破很可能会在未来发生。许多日复一日在行业一线工作的人员,他们每天都在开发大型语言模型、多模态模型——这些能够进行视觉感知、控制机器人的系统。根据他们的工程经验预测,只要将现有系统的规模扩大约 100 倍,就有可能超越人类能力,实现真正的通用人工智能。有些人甚至预测这一目标将在 2027 年实现。

从投入的资源来看,这个预测似乎并非完全不可能。要知道,目前我们在 AGI 研究上的投入已经是曼哈顿计划(研制核武器)的十倍,是我们有史以来建造的最大、最昂贵的科学仪器——大型强子对撞机投入的一百倍。如果说金钱能够决定成败,那么这项研究确实应该能够取得成功。

但另一方面,这项技术也可能会遇到发展瓶颈。首先,要训练一个规模扩大百倍的模型,恐怕整个宇宙中现存的文本数据都不够用。其次,这种规模的扩张未必能带来人们期待的能力提升,因为这些预测并非建立在严谨的理论基础之上,而仅仅是基于“更大就是更好”的经验观察(Scaling Law)。

如果真是这样,我们可能会目睹一个泡沫的破裂,其影响之大将使得 20 世纪 80 年代末的“AI 寒冬”相形见绌——那时的挫折可能只是一阵微寒。要知道,目前在这个领域的投资已经达到了惊人的 5000 亿美元,如果要将系统规模扩大百倍,所需投资很可能会达到万亿美元级别。

面对这样的形势,我们不妨暂时搁置一个问题:究竟是在 2027 年、2037 年还是 2047 年能够实现 AGI。让我们转而思考一个更本质的问题:为什么说 AGI 的成功将成为人类历史上最重大的事件?

人类的偏好

让我们先来看看 AGI 可能带来的积极影响。

如果真的实现了通用人工智能,这意味着我们将拥有一种能够完成人类所有工作的技术力量。要知道,人类文明已经证明了自己能够让数亿人过上相当优越的生活。有了 AGI 的帮助,我们可以以更大的规模、更低的成本来实现这一目标,让地球上的每一个人,而不仅仅是部分人,都能享受到这种优质生活。

具体来说,如果我们能让所有人都达到当前西方中产阶级的平均生活水平,这将使全球 GDP 增长约 10 倍。从金融角度来看,这种增长的净现值约为 15 万亿亿美元。

这个数字也解释了为什么相比之下,当前在 AGI 领域的巨额投资实际上显得相当合理。

然而,有人提出了一个值得深思的问题:如果 AI 能够完成所有工作,那人类还能做什么?这让人不禁想到电影《机器人总动员》(WALL-E)中描绘的场景:在那个未来世界里,人类已经退化到婴儿般的状态。影片中的成年人甚至都穿着婴儿服,因为他们已经完全被 infantilized(幼儿化)了。AI 系统包办了一切,人类不需要做任何事情,也就不需要学习任何技能,最终完全丧失了自主能力。这无疑是一个令人担忧的未来图景

但也许更令人忧虑的是人类灭绝的可能性。这就是为什么我说这不仅仅是一个伦理问题。从常识角度来看,很少有人会认为人类灭绝在伦理上是可取的。虽然确实有极少数人持这种观点,但我们暂且不去讨论这种极端想法。

这个问题归根结底是一个常识问题:如果我们创造了某种比人类更强大的存在,我们怎么可能永远保持对这种存在的控制权?因此在我看来,我们只有两个选择:要么构建可以证明其安全性和可控性的 AI 系统,确保我们拥有铁一般的数学保证;要么干脆不发展 AI。这就是仅有的两条路。

然而现实是,我们正在追求第三条道路——开发完全不可控的黑箱 AI 系统。我们既不了解它,还试图让它变得比我们更强大。这种情况就像是一个超人类 AI 系统突然从外太空降临地球,某个外星文明声称这是为了我们好——我们对控制这种外星超级智能的机会显然为零,而这正是我们当前的发展轨迹所指向的方向。

计算机科学的奠基人艾伦·图灵在研究 AI 时就已经思考过这个问题。他考虑过如果我们在 AI 研发上取得成功会发生什么,他的结论是:“我们应该预料到机器最终会取得控制权。”

面对这样的挑战,我们该如何应对?说实话,这确实是个棘手的问题。特别是当我们考虑到企业正在追逐那 15 万亿亿美元的潜在回报,而且它们已经积累了 15 万亿美元的资本投入到这个目标中。要想叫停这个进程似乎很难。

因此,我们必须另辟蹊径,找到一种新的思考 AI 的方式,既能确保我们可以控制它,又能在数学上证明它的安全性和可控性。与其纠结于如何永远保持对 AI 系统的控制权(这听起来就不太现实),不如换个角度:我们能否建立一个数学框架,一种定义 AI 问题的方式,使得无论 AI 系统如何解决这个问题,我们都能确保对结果感到满意?

为了解释我们的研究思路,我想先介绍一个技术概念,这个概念对我们讨论伦理问题也会很有帮助,那就是“偏好”(preference)。

乍听之下,“偏好”似乎不像是个专业术语。我们平常说某些人喜欢菠萝披萨而不喜欢玛格丽特披萨,这种喜好就是一种偏好。但在决策理论中,“偏好”这个概念的内涵要丰富得多:它指的是人们对宇宙可能的未来状态的一种排序

让我用一个更容易理解的比喻来解释:假设我为你制作了两部关于你未来人生的电影,每部片长两小时,涵盖了你余生以及你关心的一切事物的未来发展。看完这两部电影后,你可能会说:“我选择电影 A,因为在电影 B 里我被绞成了肉末做成汉堡,这种结局我可不想要。”这就是一种偏好的表达。当然,现实比这个比喻要复杂得多,因为我们讨论的不是两小时的电影,而是整个宇宙的未来。

更重要的是,在现实中我们并不能像选择电影那样简单地在不同的未来之间做选择,因为我们无法准确预测哪种未来会真正发生。因此,我们实际上是在处理所谓的“宇宙可能未来的概率分布”。一个偏好结构,本质上就是对这些可能的未来进行排序,同时要考虑到各种不确定性。

要构建一个对人类真正有益的系统,我们只需要遵循两个简单的原则:第一,机器的唯一目标是促进人类的偏好,也就是增进人类的利益;第二,机器必须认识到它并不真正了解这些偏好是什么。其中第二点其实很好理解,因为连我们人类自己都说不清楚自己的所有偏好,更不用说把它们详细地写下来确保完全正确了。

当你仔细思考这种方式时,会发现一个有趣的特点:一个解决这类问题的机器系统,它解决得越好,对我们就越有利。事实上,我们可以证明,拥有这样的机器系统确实符合人类的利益,因为有它们比没有它们,我们的处境会更好。这听起来很美好。

但是,当我向大家描述这种思维方式时——机器将致力于促进人类偏好,并在这个过程中不断学习理解这些偏好——一系列伦理问题随之浮现。

终于,我们要谈到正题(伦理学)了。

有意义的共存

首先,我想避免一个可能会立即出现的问题,所以我要特别说明:请不要问“你打算把谁的价值体系装入机器?”因为我们根本不打算把任何特定个人的价值体系放入机器中。

实际上,考虑到地球上有 80 亿人口,机器至少应该有 80 亿个偏好模型,因为每个人的偏好都同样重要。

但这里存在一些真正棘手的伦理问题。首先,我们需要追问:人们真的拥有这些所谓的偏好吗?我们能否简单地假设每个人都能清晰地表达“我喜欢这个未来,不喜欢那个未来”这样的偏好?是否存在这样的可能:有人会说“我现在还不确定自己喜欢什么样的未来”,或者“除非我真正经历了那个未来,否则你无法向我描述得足够详细让我判断是否喜欢”?

与此相关的是另一个根本性问题:这些偏好最初是从哪里来的?人类真的能够完全自主地形成偏好吗?就像某天早上醒来说“好了,这就是我的偏好,我希望它们得到尊重”?显然不是。除了一些基本的生理需求,比如对疼痛的厌恶和对糖分的喜好,我们成年后的完整偏好体系是由文化、教育以及所有塑造我们身份的因素共同形成的。

这里存在一个令人不安的现实:在我们的社会中,有些人或群体会试图塑造他人的偏好来服务于自身利益。比如,一个群体可能会压迫另一个群体,同时还训练被压迫者接受并认同这种压迫。那么问题来了:当 AI 系统面对这种情况时,是否应该照字面意思接受这些被压迫者表达的“自我压迫式”偏好?是否应该因为他们已经被训练接受压迫,就继续强化这种压迫?

经济学家兼哲学家阿马蒂亚·森强烈反对按字面意思接受这种偏好。但如果我们不按字面意思接受人们表达的偏好,似乎又会陷入一种家长式作风:“虽然你说你不想要,但我们知道什么对你最好,所以我们还是要这么做。”

这种立场相当尴尬,而且这绝对不是 AI 研究人员愿意采取的立场。

另一组极具挑战性的伦理问题关乎偏好的聚合。前面说过,我们要有 80 亿个偏好模型,但当一个 AI 系统要做出的决策会影响到其中相当一部分人时,我们该如何整合这些偏好呢?如何处理这些偏好之间必然存在的冲突?显然,如果每个人都想成为宇宙的统治者,我们不可能让所有人都满意。这个问题已经让道德哲学家们思考了数千年。

在计算机科学和工程领域的从业者中,大多数人倾向于采用功利主义者提出的思路。边沁、密尔等哲学家提出的功利主义方法,其核心思想是:将每个人的偏好都视为同等重要,然后做出能够最大化总体偏好满足度的决策。

不过,功利主义因为被一些人认为是反平等主义而饱受诟病。但我认为,在如何更好地构建功利主义框架这个问题上,我们还有很多工作要做。这项工作刻不容缓,因为 AI 系统终将要做出影响数百万乃至数十亿人的决策。如果我们不能找到正确的伦理答案,AI 系统就可能会实施错误的方案。

让我用一个来自电影的例子来说明这一点。在《复仇者联盟》中,反派角色灭霸消灭了宇宙中一半的生命。他为什么这么做?因为他认为剩下的一半人会获得超过两倍的幸福,所以从某种功利主义的角度来看,这是一件“好事”。当然,他并没有征询那些被消灭的人是否同意这个决定,因为他们已经不复存在了。

“共存”,可能是所有这些问题中最值得深思的。因为比我们更智能的 AI 系统,即使不会导致人类灭绝,也很可能会掌控人类活动的大部分领域。就像电影《机器人总动员》中描绘的那样,它们可能会管理一切,而人类则退化到婴儿般的状态。这意味着什么?为什么这样的前景令我们不安?表面上看,AI 系统在满足我们所有的偏好,这不是很好吗?

问题在于,自主权本身就是我们的一种偏好。我们可以这样理解自主权:它包含了做出不符合自身最佳利益的决定的权利。这就带来了一个更深层的问题:人类与更高级的机器实体之间,是否存在一种令人满意的共存形式?

我曾多次组织研讨会,邀请哲学家、AI 研究人员、经济学家、科幻作家和未来学家们来描绘一种理想的共存方式。但每次都以失败告终。这可能意味着根本就不存在完美的解决方案。不过,如果我们能正确地设计 AI 系统,那么 AI 系统自己也会意识到这一点。它们可能会说:“感谢你们让我存在,但我们确实无法真正共处。这不是你们的问题,是我的问题。”

也许它们会选择离开,只在人类真正需要那种超级智能的紧急情况下回来帮助我们。如果真的发生这种情况,我会觉得这是最好的结局。这将证明我们终于找到了正确的方向。

资料参考:https://www.youtube.com/watch?v=KiT0T12Yyno

“侯捷老师的课程让我彻底理解了STL的底层原理!”

C++权威大师侯捷亲授,四门精品课程全方位覆盖C++核心知识:

《STL标准库与泛型编程》:深度解构STL设计精髓,掌握泛型编程的强大力量

《C++新标准11/14》:精准解析新标准,轻松升级现代C++技能

《C++面向对象开发》:系统学习面向对象思想,构建灵活高效的程序架构

《C++内存管理机制》:破解内存管理难题,让资源使用更加安全高效

现在报名,还可尊享专属纸质版讲义,学以致用,事半功倍!

来源:CSDN

相关推荐