摘要:CES开幕演讲的第二天,英伟达创始人兼CEO黄仁勋接受了全球媒体的采访,持续1小时的采访中,黄仁勋回答了关于英伟达策略、全球投资、AI生态格局、AGI时刻、Agentic AI、自动驾驶、物理AI等26个问题。
CES开幕演讲的第二天,英伟达创始人兼CEO黄仁勋接受了全球媒体的采访,持续1小时的采访中,黄仁勋回答了关于英伟达策略、全球投资、AI生态格局、AGI时刻、Agentic AI、自动驾驶、物理AI等26个问题。
在记者会的最后,黄仁勋在回答至顶科技关于AI时代的学习教育趋势时表示,“未来,每个学生都必须学会使用AI,就像现在这一代学生都必须学会使用计算机一样。”
黄仁勋强调,AI革命极其深远。他以计算机图形学举例,“这个领域的摩尔定律曲线,原本实际在放缓,但AI的加入让它获得了超级动力,现在帧率达到200、300、400帧每秒,图像完全是光线追踪且非常漂亮”,所以,我们已经看到了计算机图形学的指数增长曲线,实际上,所有领域都看到了类似的陡峭增势。
有趣的是,这次出现在记者会上的黄仁勋,换了一件皮衣,之所以没穿前一天在CES上的“闪亮亮”皮衣,他调侃说道“too much(有点过了)”。
以下是针对黄仁勋本次记者会采访的完整听译(为便于阅读和可读性,科技行者进行了文字和段落上的小幅修改):
【1】“英伟达只做两件事”
问:去年英伟达重新定义了数据中心,现在又完成了系统层面的所有工作,特别是这次发布了NVLink72,接下来是不是应该考虑基础设施、电力和其他系统组件的问题了?
黄仁勋:英伟达有个宗旨,只做两件事情——要么是别人没在做的事,要么是我们能做得明显更好的事。所以英伟达进入新业务的标准其实很高。比如,如果英伟达不造NVLink72,谁去造呢?如果英伟达不开发Spectrum X这样的以太网交换机,谁能做呢?
虽然我们有32000人,仍然是相对较小的公司。作为一家规模不大的公司,我们需要确保资源高度聚焦在能做出独特贡献的领域。
从早期的Hopper架构,到现在的Blackwell架构,功率密度在不断提升。这是必然的发展趋势,因为更高的功率密度,意味着更好的性能。不管光子的速度有多快,我们还是倾向于让计算机更紧凑,而且现在Blackwell在液冷方面都已经做的很好。
【2】谈AI PC:“我们正在把云端AI引入端侧AI”
问:这次英伟达发布了很多关于AI PC的消息,但现阶段AI PC的采用率还没有真正起飞,你认为是什么原因阻碍了它的发展?英伟达如何帮助改变这种局面?
黄仁勋:很好的问题。AI技术最初是在云端环境下发展起来的,如果回顾英伟达过去几年的增长轨迹,你会发现主要集中在云计算领域,这是因为训练AI模型需要超级计算机。这些模型规模都很庞大,在云端部署和通过API调用比较容易。
但我们认为,仍然有很多设计师、软件工程师、创意工作者和技术爱好者,他们更倾向于在PC上开发AI应用。其中一个挑战在于,由于AI生态系统主要集中在云端,大量的精力、发展动力和工程努力都投入在云端,导致开发端侧AI应用的人相对较少。
但其实Windows PC完全有能力支持AI开发,特别是通过WSL2(Windows Subsystem for Linux 2)。WSL2本质上是一个虚拟机,是一个运行在Windows内部的双操作系统,它最初是为云原生应用创建的,支持Docker容器,而且支持CUDA。
我们正在努力确保PC上的WSL2能够完美支持这些技术,从而把原本为云端打造的AI技术引入到PC端,就相当于把云端能力带到PC端。
我坚信这是未来的正确方向,我对此很兴奋,所有的PC制造商也都表现出极大的兴趣。我们正在与合作伙伴一起,让所有PC都支持带有WSL2的Windows系统,这样就能把云端AI的所有技术进展、工程成果、生态系统带到个人电脑上。
【3】谈投资、竞争与合作:“我们的紧迫感来自客户的真实需求”
问:去年GTC大会上,你分享了英伟达在以色列增加投资的情况,加强了你们作为该国最大雇主之一的地位。2024年你们继续扩张,你们打算如何进一步增加在以色列的投资?具体来说,我们是否很快就会听到一个正在进行中的新交易?另外,考虑到目前的局势,你是否看到从那里引进人才的机会?
黄仁勋:我们从世界各地吸引优秀人才,目前英伟达网站上收到了超过100万份简历申请,而我们公司只有32000名员工。这表明大家对加入英伟达的兴趣非常高,因为我们做的工作很有趣。
在以色列,我们有很大的发展机会。最初我们收购迈络思的时候,在那里有2000名员工,现在我们在以色列的员工已达到近5000人。我们可能是以色列发展最快的企业雇主之一,我为此感到非常自豪。
在过去一段时间里,我们的以色列团队创造了NVLink、Spectrum X、Bluefield 3等重要产品,我对团队的专业水平和敬业精神感到非常自豪。
关于新的收购计划,今天暂时没有要宣布的消息,但我们始终保持开放态度。如果你们知道一些必须要拿下的好项目,请第一时间告诉我,只告诉我(开玩笑)。
问:作为一个游戏玩家,我感到很兴奋,因为当你谈到内存时,特别提到了HBM,为什么没有选择三星的?
黄仁勋:我认为三星和SK不生产显卡,对吧?(此时黄仁勋问向现场媒体)他们生产吗?(得到肯定回复后)好吧,抱歉,是我搞错了,别告诉他们我说了这些。
关于HBM,他们正在努力,他们一定会成功的,这毫无疑问,我对此充满信心。要知道,最早的HBM内存就是三星开发的,英伟达使用的第一块HBM内存就来自三星,所以他们会重新崛起的,他们会强势回归的。
追问:为什么他们花了这么长时间?
黄仁勋:其实并不算太长。当然,韩国产业求变心切,这是好事。
但他们需要设计新方案,我相信他们一定能做到。而且他们进展很快,非常投入,我很有信心他们会成功。SK和三星都是优秀的公司,尤其在内存领域,所以我相信他们会继续取得成功。你们昨天也看到了Blackwell中使用了多少HBM内存,HBM内存对我们的计算非常重要。
问:尽管超大规模客户对英伟达产品的需求已经很明确,但我好奇的是,你们在扩大收入来源方面的紧迫感有多大?特别是在开拓企业客户和政府客户,帮助他们部署具有高性能AI计算能力的数据中心方面。尤其是在亚马逊等公司正在研发自己的AI芯片时,你们感受到多大压力?然后,能否详细说说你们在企业和政府方面的进展吗?
黄仁勋:我们的紧迫感来自于客户的真实需求。我从不会因为一些客户也在开发芯片而担忧,因为大家做的是不同的事情。
我很高兴看到客户在云端使用英伟达的技术,很高兴他们用英伟达的技术来开发AI。我们的技术进步现在非常快,每年性能可以翻一番,就代表每年成本降低一半。这比摩尔定律最好时期的进步要快得多。所以,我们会积极响应客户需求,用产品回应他们。
关于企业级市场,现在主要有两大行业服务:软件服务商(比如ServiceNow、SAP等),以及帮助他们将软件适配到业务流程中的解决方案集成商。英伟达的策略是与这两个生态系统合作,帮助他们构建Agentic AI,而NIM、NeMo、AI Blueprints都是用于构建Agentic AI的工具包。
比如在软件服务商方面,我们与ServiceNow团队的合作就很成功,他们将因此推出一系列基于ServiceNow的AI代理服务,服务于员工和客户。这就是我们的基本战略。
在解决方案集成商方面,我们与埃森哲等公司合作。埃森哲在帮助客户采用Agentic AI方面做得非常出色。
所以第一步是帮助整个生态系统开发AI,过去一年我们在构建Agentic AI工具包方面做得不错,接下来就是部署的环节了。
问:很多公司都在开发Agentic AI,你们是如何与AWS、微软、Salesforce这些同样在为客户提供开发平台的公司合作或竞争的?你们是如何与这些公司打交道的?
黄仁勋:英伟达不是一家直接服务企业的公司,而是一家技术平台公司。我们在构建工具包、库和AI模型,这些都是为ServiceNow、SAP、Oracle、Synopsys、Cadence、西门子这样的服务商提供的,但在计算层面、AI库层面不是这些公司花精力投入的领域,所以英伟达可以为他们创建。
这其实相当复杂,因为我们实际在做的事情是在把类似ChatGPT的功能打包整合到容器中。优化这些端点和微服务是非常复杂的。不过一旦完成,客户就可以在任何云平台上使用我们的产品,所以我们开发NIM、NeMo、AI Blueprints不是为了与他们竞争,而是为了服务他们。
事实上,已经有很多云服务提供商用NeMo训练他们的模型,他们的云商店里也有NeMo和NIM,我们对此感到很高兴。我们创建了这整个技术层,理解NIM和NeMo的作用就像理解CUDA和CUDA X库一样重要。CUDA X库对于英伟达平台起到了关键作用,其中有用于线性代数的cuBLAS,用于深度神经网络处理的cuDNN(这真正革新了深度学习),以及cuTLAS等所有这些我们谈论的高级模型,我们为行业创建这些库,这样他们就不必自己做了。
同理,我们开发NeMo和NIM也是为了服务整个行业,这样企业就不必自己从零开发了。
问:我来自中国台湾。CES主题演讲提到,Digits的CPU是与联发科合作的,想请您谈谈更多与其他中国台湾公司合作的情况。另外还想了解英伟达是否会在中国台湾建设总部?
黄仁勋:我们在中国台湾有很多员工,但现有的办公地太小了,我需要找到解决方案,也许我之后会宣布一些消息,我们正在物色地产。如果你知道好地方,请务必第一时间只告诉我一个人。
关于联发科,我们在多个领域都有合作。比如自动驾驶汽车领域,双方合作为行业提供完全软件定义的智能汽车解决方案。所以我们在汽车行业的合作非常非常顺利。
此外,新的Grace GB10 CPU也是与联发科合作开发的。我们共同设计架构,实现了芯片间的互联以及CPU和GPU的内存一致性。
坦白说,联发科在芯片设计和制造方面都做得很出色,第一次做出来的就很完美,性能优异。大家都知道联发科在低功耗方面的优势,确实名不虚传。我们很高兴能与这样优秀的公司合作。
问:关于贸易限制,这个话题现在依然广受关注,你对贸易限制可能影响到整个行业(包括英伟达)的盈利前景担心吗?
黄仁勋:我并不担心。我相信政府会在贸易谈判中做出正确的决定。无论最终结果如何,我们都会尽最大努力帮助客户,推动市场向前发展。就像我们一直以来做的那样。
【4】谈AGI:“人在使用工具,机器终究是工具。”
问:我来自韩国,想问个哲学问题。最近Sam Altman发推文说我们已经接近AI“奇点”了,你这次也提到“通用机器人的ChatGPT时刻即将到来”,如果这是真的,机器人很快就会出现在我们身边,也许有些机器人会比我们聪明,也许有些对我们来说很难理解。那么你认为,机器人会站在哪一边?是与人类站在一起,还是对抗人类?
黄仁勋:会与人类站在一起,因为我们就是这样设计它们的。
AGI(超级智能)这个概念并不陌生。在我的公司里,我的管理团队、领导们和公司的科学家们都表现出超级智能,我已经被AGI包围了,但我更愿意被AGI包围,而不是相反的情况,因为这就是未来。
你会有超级智能来帮助你写作、分析问题、做供应链规划、编写软件、设计芯片、做数字营销、做播客等等,而且它们随时待命,为你提供服务。
追问:所以你不认为它们会有冲突?
黄仁勋:技术可以被用于多种用途。但要记住,是人在使用工具,机器终究是工具。
【5】谈Cosmos:“一个能理解物理世界的基础模型,会让机器人成为现实”
问:这次在CES演讲的某些部分,感觉像是在听技术研讨会,内容很专业。但现在你们的受众群体更广了,能否重新解释一下这次发布的AI进展的核心意义,让那些完全不了解技术的普通观众也能理解。
黄仁勋:首先,我承认有这个问题,但这还是次要的。要知道,英伟达是一家技术公司,而不是消费品公司,我们的技术会影响和改变消费电子产品的未来。
虽然CES热情邀请英伟达来分享,但我们始终是一家专注于技术的公司。当然,这并不能成为我没有把技术讲解得更好的借口。
我重新试着讲解一下。
我们这次宣布的一个最重要的突破,是开发了一个能够理解物理世界的基础模型Cosmos。就像GPT是理解语言的基础模型,Stable Diffusion是理解图像的基础模型一样,我们创造了一个理解物理世界的基础模型。
它能理解摩擦力、惯性、重力、物体的存在和持续性,以及几何和空间关系等概念——这些都是人类孩子们与生俱来就能理解的东西。我们认为需要有这样一个“理解物理世界”的基础模型,它能以大语言模型目前无法做到的方式理解物理世界。
现在,通过Cosmos,所有你能用GPT和Stable Diffusion完成的任务,都可以用它来实现。比如,你可以跟这个世界模型对话,问它“现在看到了什么?”它通过摄像头获取的画面,可以描述“看到很多人坐在桌前,大家在一个房间里”的现实场景。
为什么我们需要Cosmos?因为如果你希望AI能够在物理世界中合理地运作和互动,就必须让AI理解物理世界。
自动驾驶汽车需要理解物理世界,机器人也需要理解物理世界,Cosmos是实现所有这些应用的起点。就像GPT催生了我们今天经历的一切,就像Llama对当前所有的AI活动都很重要,就像Stable Diffusion触发了所有这些生成式图像和视频模型一样。
我们希望Cosmos也能达到同样的效果,Cosmos会让机器人成为现实。
问:我想问这次发布的模型,尤其是Cosmos,这些模型能在智能眼镜上运行吗?或者在开发这些模型时,你们有考虑过智能眼镜吗?因为考虑到行业的发展方向,智能眼镜似乎是未来很多人体验AI代理的一个重要平台。
黄仁勋:是的,我对智能眼镜很感兴趣,它能回答“我看到了什么、如何到达目的地”,它可以帮助你阅读,还有很多其他用途,使用场景非常广阔。
对于Cosmos的使用方式,云端的Cosmos可以提供视觉理解能力,如果你想在设备本地运行,那么你可以使用Cosmos来提炼出一个小型模型。这样,Cosmos就变成了一个知识迁移的AI工具,它将知识转移到一个更小的AI模型中。
这种做法之所以可行,是因为更小的AI模型虽然通用性较差,但在特定领域非常专业,这就是为什么可以进行定向的知识迁移。这也是为什么我们总是先构建基础模型(大模型),然后通过知识蒸馏逐步构建更小的模型。
【6】谈DLSS:“从最初没人相信,现在大家终于意识到它确实是未来”
问:关于DLSS 4,你这次做了一些视频展示,我想详细了解一下,比如多帧生成技术,它是否仍然是渲染两帧,然后在中间生成并进行插值?
另外,关于演示视频里提到的RTX Neural Material,这是游戏开发者需要专门采用的技术吗?还是它是驱动程序层面的功能,可以让大部分PC游戏受益?
黄仁勋:在Blackwell中,我们增加了着色器处理器能够运行神经网络,这样就可以在着色器管线中混合使用代码和神经网络模型。这非常重要,因为纹理和材质的处理,都是在着色器中处理的。
如果着色器能运行AI,那么就能利用神经网络带来在算法上带来的进步。比如压缩技术,现在的纹理压缩效果比我们过去30年使用的压缩算法要好得多,压缩比有了巨大提升。对于很多纹理可以额外压缩5倍。现在游戏体积都很大,所以这是个重要进步。
第二点关于材质。材质决定了光线在表面的传播方式,它的各向异性特性,会让光线以特定方式反射,让我们能分辨这是金子、还是油漆、还是金箔。这种特性本质上是原子层面发生的,光线在材料的微观结构上的反射、折射和散射造就了材质的特性。用数学方法很难描述这个过程,但我们可以用AI来学习它。所以我认为,这种神经材质技术是一个重大突破,能为计算机图形带来前所未有的生动感和逼真度。
这两项技术都需要内容端的配合,所以开发者首先要开发内容,然后我们就可以轻松整合进去。
关于DLSS,帧生成不是插值关系,而是字面意义上真正的生成。我们是在预测未来,而不是在对过去进行插值,这样做是为了提高帧率。DLSS 4是一个彻底的突破,你们一定要去体验。
问:AI在PC游戏中是否扮演了更决定性的作用,你能想象传统渲染的画面帧,未来全部都变成AI生成的帧吗?
黄仁勋:不是的,我来解释一下原因。ChatGPT刚出来时,大家说“现在我们可以让AI生成一整本书了”,但实际上内部人员都知道这并不现实,原因是AI生成内容需要获得基准事实,这叫做条件控制(Conditioning)。
就像我们现在,要用上下文来条件控制聊天或提示词,在回答问题之前,它必须理解上下文,上下文可能是PDF文件、网页搜索、或者提示词。
游戏也是同样的道理,你必须提供上下文。而游戏的上下文不仅有故事情节,还要考虑空间关系。进行条件控制的方式是提供初始的几何形状或纹理片段,然后基于这些,系统才能生成新内容或提升内容。
这种条件控制与ChatGPT使用上下文或企业中的“检索增强生成(RAG)”是一样的。未来的3D图形生成将建立在以真实场景为基础的生成方式。
以DLSS 4为例。在四帧画面中有3300万像素,我们只需要渲染其中的200万像素,并让AI预测并生成其余的3100万像素。
这200万像素必须有精确的“条件控制”,通过“条件控制”,我们可以生成其他的帧。而且更重要的是,由于原本用在那3100万像素的算力现在都集中在这200万像素上,所以这200万像素可以渲染得非常精美,为其他像素的生成提供了基础和参考。
这种变革将影响游戏的方方面面,从像素渲染、到几何渲染、到动画渲染等。DLSS从第一次宣布到现在,过去了六年时间,从最初的没人相信(部分原因是我没有解释清楚),到现在大家终于意识到它确实是未来,关键是要有条件控制,要有艺术家的专业创意指导。
我们在Omniverse中就是这样做的。我们将Omniverse和Cosmos结合,就是因为Omniverse作为Cosmos的3D引擎,本质上是一个生成引擎。我们可以精确控制渲染的程度,尽可能生成更多内容。当减少控制和模拟时,我们反而能模拟更大的世界。因为在这背后,我们有一个强大的生成引擎,在创造一个精美的世界。
问:这次发布的5090是个很棒的硬件,但要让新硬件运行起来,需要面对Windows和DirectX的适配挑战。你们需要做什么来减少引擎适配的阻力?如果我想让DirectX与你们的硬件配合得更好,需要注意什么?
黄仁勋:多年来,每当DirectX的API需要扩展或革新时,微软一直都非常愿意配合。我们与DirectX团队有着很好的合作关系。当我们在推进GPU技术时,如果API需要改变,他们都会很支持。
但对于DLSS来说,大多数情况下我们不需要改变API,实际上需要改变的是引擎本身,因为这涉及到语义理解层面,它需要理解场景的整体,而不仅仅是绘制调用。
场景的更多信息存在于虚幻引擎、寒霜引擎或其他开发者的引擎中,这就是为什么DLSS现在已经集成到了很多个引擎里的原因。特别是从DLSS 2/3/4开始,一旦完成集成,即使游戏是为DLSS 3开发的,当我们更新到DLSS 4时,它也能获得DLSS 4的部分改进,以此类推。所以我们必须为基于场景语义理解的AI处理搭建管道。AI处理是基于场景的语义信息,这真的必须在引擎层面实现。
【7】谈Blackwell:“具有强大的通用性”
问:你认为Blackwell到统一架构,在AI竞争中有什么优势?
黄仁勋:Blackwell GPU具有强大的通用性,能够支持从Agentic AI到完整机器人系统的各类应用,无论是云端服务器、自动驾驶汽车、机器人、还是游戏系统,都能在Blackwell上运行。这是我们深思熟虑后做出的战略决策。
这么做的原因是,软件开发者需要一个通用的开发平台,开发者只需要开发一次,就能确保他们的程序可以在任何搭载英伟达芯片的平台上运行。就像我这次在CES上说的,我们可以在云端开发AI模型,然后轻松部署到个人PC上运行。还有谁能做到这一点?
这就表明,云端的AI容器可以直接下载到PC上运行。比如SD-XL、Flux、Llama等模型都能完美适配,直接从云端拖拽下来,在你的PC上就能立即使用,在游戏等应用中也能得到广泛应用。
问:看到这次发布的5070的性能和4090差不多,价格还降了那么多,很让人兴奋,那么我们对即将上市的其他型号可以期待什么?
黄仁勋:我们这次发布了四张RTX Blackwell显卡,其中性能最低的一款超过了当今世界上性能最强的GPU,真是令人难以置信。这充分体现了AI的惊人能力,如果没有AI、没有张量核心、以及围绕DLSS4的所有创新,我们不可能达到这样的性能水平。
至于其他型号,我现在没什么可以宣布的。会有6060吗?我不知道。不过6060确实是我最喜欢的数字之一。
问:这次英伟达发布了DIGITS,你认为非游戏PC市场目前最没有被满足的需求是什么?
黄仁勋:让我先解释一下DIGITS,它是一个深度学习GPU智能训练系统,是一个面向数据科学家和机器学习工程师的平台。现在,这群人大多使用个人电脑、Mac或工作站来做这些工作,说实话,对大多数人的PC来说,做机器学习、数据科学、运行Pandas或PyTorch这些工作,都不是最优选择。
所以我们现在有了DIGITS,它体积小巧,可以放在桌面,支持无线连接,使用起来就像在云端操作一样方便,就像是在运行你自己的私人AI云。
为什么要开发这样的设备?因为对大多数开发者来说,需要频繁使用计算资源,如果完全依赖云服务,成本会很高。DIGITS正好填补了这个市场空白,现在有了这个设备,相当于拥有了一个私人开发云,这对那些需要持续进行开发的数据科学家、学生和工程师来说非常有价值。
虽然AI起源于云端,未来可能仍然以云为主,但目前的计算设备已经跟不上AI发展的步伐。这就是为什么我们要开发新的解决方案。
问:我有一个关于游戏玩家和消费者的问题。我们注意到RTX 5090和5080之间存在巨大差距。5090的CUDA核心数量是5080的两倍多,价格也翻倍了。为什么要在旗舰和次旗舰产品之间做出如此大的差异?
黄仁勋:原因是,一旦有人想要最好的产品时,他们就一定会去选择最好的。市场不需要那么多细分,对于我们的发烧友来说,如果他们想要最好的,给他们稍差一点的产品来省100美元,他们是不会接受的。他们就是想要最好的。
当然,2000美元确实不是小数目,这确实是一个相当高的价格。但要记住,这项技术是要进入你的家用PC环境的。而你的那台PC,已经在显示器和音响上投资了约1万美元,你肯定会想要最好的GPU。
所以我们有很多客户,他们就是追求绝对最好的产品。
【8】谈三种Scaling Law:一个良性循环
问:这次CES你提到,我们正在见证三种新的Scaling Law出现,特别是测试时规模定律(Test-Time Scaling),关于测试时计算(Test-time Compute)。我认为OpenAI的GPT-o3模型已经表明,从计算角度来看,扩展推理的成本很高,在ARC-AGI基准测试中的一些运行成本达到数千美元。英伟达在提供更具成本效益的AI推理芯片方面做了什么?更广泛地说,你们如何从测试时规模定律中受益?
黄仁勋:这是个很好的问题。首先,对于测试时计算来说,无论是在性能还是成本方面,最直接的解决方案就是提升计算能力。
这就是为什么我们推出RTX Blackwell系列和NVLink72,新架构的推理性能可能比上一代Hopper高30-40倍。通过提升30-40倍的性能,你实际上也在降低30-40倍的成本,因为数据中心的其他成本基本保持不变。
这个改进方式,也是摩尔定律在计算机历史上如此重要的原因,正因为它降低了计算成本。我之前提到我们的GPU性能在过去10年提升了10000倍,这反过来说明了我们将成本降低了几千到上万倍。在过去20年里,我们将计算的边际成本降低了100万倍。
正是这种成本的大幅下降,让机器学习变得切实可行。当我们提升性能时,推理也会发生同样的事情,所以推理的成本也会下降。未来我们会继续推动计算能力的提升,也将继续带来计算成本的降低。
从另一个角度来看,现在我们通过测试时间计算(Test-Time Compute)或测试时扩展(Test-Time Scaling)来获得答案需要多次尝试,这些答案会被用作下一轮后训练(Post-Training)的数据,这些数据又会成为下一轮预训练(Pre-Training)的数据——所有我们现在收集的数据都会进入预训练和后训练的数据池。通过持续积累和利用这些数据来训练超级计算机,我们可以让模型变得更智能,从而降低推理成本,最终让每个人的AI推理成本都变得更低。
只不过,这个过程需要时间,所以这三种Scaling Law会在未来持续发挥作用。一方面,每一次迭代我们都在提升模型的智能水平。另一方面,用户对AI的要求也在不断提高,会问出越来越难的问题,会要求AI具备更强的智能,这种需求会导致Test-Time Scaling的持续发展,形成一个良性且不断扩大的循环。
【9】谈自动驾驶汽车:“更大的创新可能来自中国”
问:我的问题是关于自动驾驶汽车。我记得2017年英伟达在CES上展示了一辆概念车,并在5月的GTC上与丰田合作。那么2017年和2025年,这项技术有了哪些变化?当年存在什么问题?现在又有什么技术突破?
黄仁勋:首先,我认为未来所有可移动的设备都会具备自动化功能。不会再有需要人力推的割草机了,20年后如果还有人在推割草机,那会很有趣,但这显然毫无必要。未来的汽车,你仍然可以选择自己驾驶,但所有汽车都将具备自动驾驶功能。这个发展趋势已经非常明显了。
5年前,我们还不太确定这项技术会发展到什么程度,但现在我们非常笃定,包括传感器技术、计算机技术、软件技术都已经相当成熟。现在有充分证据表明,新一代汽车,特别是电动汽车,几乎每一款都会具备自动驾驶能力。
我认为有两个因素推动了这个变革,真正改变了传统汽车公司的想法。一个是特斯拉,影响力很大;但更大的影响可能来自中国令人惊叹的技术进步,蔚来、理想、比亚迪、小鹏、小米等新能源汽车公司,技术非常出色,自动驾驶能力也很强,现在正在走向世界。这给未来的汽车树立了标准,未来每辆车都必须具备强大的自动驾驶功能。
所以我认为,世界已经在改变,技术成熟需要时间,我们对它的认知也需要时间,但现在形势已经很清晰了。我们的重要合作伙伴Waymo在旧金山已经遍地开花,老百姓也很喜欢它。
【10】谈AI发展:“AI发展没有任何物理限制,下一代将是用AI学习的一代”
问:英伟达是如何考虑市场策略的?AI发展的下一步需要什么?是否存在物理限制?
黄仁勋:我们只在市场真正需要我们的时候才会行动,如果市场存在空白,而且只有我们注定要去填补这个空白的时候,我们就会去做。我们倾向于做那些与现有市场不同的事情,或者如果我们不做就没人会做的事情。
这就是英伟达的理念:不要重复做别人已经在做的事。我们不是市场份额的争夺者,而是市场的创造者。我们不倾向于进入已经存在的市场去争夺份额,那不是英伟达的风格。
比如说,市场上还没有Digits这个东西,如果我们不开发它,世界上就不会有人去开发它,因为软件栈太复杂,计算能力要求太高。除非我们去做,否则没人会去做。如果我们没有推进神经图形学,也不会有其他人去做,所以我们必须去做。这些都是我们必须承担的使命。
问:我来自以色列。过去几年里,AI(特别是生成式AI)在各个领域发展迅速,我认为这要归功于推动这一时刻的科技公司。你认为,当前AI的发展速度是可持续的吗?短期内能维持这种势头吗?
黄仁勋:是的,据我所知,AI的发展没有任何物理限制。
第一,正如你所知,我们能够如此快速推进AI计算的原因之一,是我们能够以集成的方式同时构建和整合CPU、GPU、NVLink、网络以及所有软件和系统。
如果这些工作分散在20个不同的公司,整合起来会非常耗时。正是因为我们掌握了所有集成技术和软件支持,才能如此快速地推进系统发展。从Hopper、H100到H200再到下一代,我们将持续提升每个单元的性能。
第二,因为我们能够优化整个系统,我们能实现的性能远超单纯的晶体管性能提升。虽然摩尔定律已经放缓,尽管每代晶体管性能的提升不明显,但我们的整体系统性能仍在逐年大幅提升。所以我认为目前没有明显的物理瓶颈。
随着计算能力的提升,Scaling Law的三种状态将继续发展:第一,研究人员可以用更大的模型,训练更多数据,这是“预训练规模定律(Pre-Training Scaling)”;第二,强化学习和合成数据生成能力,也会不断提升,这是“后训练规模定律(Post-Training Scaling)”;第三,如果我们继续提高计算能力,也就意味着成本会持续下降,那么我们可以处理大量数据,应用范围会进一步扩大,这就是“测试时间规模定律(Test-Time Scaling)”。
所以只要没有物理原因阻止,我们继续提升计算能力,我认为AI就会继续快速发展。
问:所有重大的技术转型都不是由一家公司完成的,比如互联网、PC等,它们最终都会在某个时刻汇聚,才能产生这个重大变革。在AI领域,你觉得现在还有什么缺失的部分会阻碍我们的发展,还是说一切都已经准备就绪了?我知道这个问题可能比较复杂,因为AI的应用方式很多。但我很好奇你是否认为生态系统中还缺少什么关键部分?
黄仁勋:是的,我认为有。让我从两个方面来说明。
首先,在语言和认知AI方面,我们仍在提升AI的认知能力,让它具备多模态和良好的推理能力。其次,是如何把这项技术应用到AI系统中。
AI不是一个模型,而是一个模型系统。Agentic AI是一个模型系统的整合——有检索模型、搜索模型、图像生成模型、推理模型、规划模型等等。所以这是一个完整的模型系统。
这几年,行业不仅是在基础AI方面创新,也一直在应用AI路径上创新。但我们还缺少一个加速这一进程的必备要素,那就是——物理AI。
就像GPT-3是第一个达到实用水平的语言基础模型,让我们能在上面开发各种功能,物理AI需要像认知AI那样有基础模型,这就是我们开发Cosmos的原因。
所以我们必须让物理AI也达到这样的水平。这就是我们在开发Cosmos的原因。一旦达到这个水平,把模型推向市场,就能激活终端的大量应用场景,而且产业链下游的任务就能顺利开展。这个基础模型也可以作为教师模型。
第二个AI缺失的部分,也是我们正在用Omniverse做的工作——就是将Omniverse和Cosmos这两个系统连接在一起,使其成为一个基于物理学的系统,这样就能使用这种基础模型来控制生成过程,让Cosmos输出的内容高度可信,而不仅只是看起来逼真。
所以,Cosmos+Omniverse是未来可能成为一个非常庞大的机器人产业的重要起点。这就是我们这样做的原因。
问:我是来自中国的媒体「至顶科技」。我的问题关于教育,(在AI时代),你认为学生需要什么样的学习方式?或者从另一个角度问,学校应该传授哪些知识、技能?
黄仁勋:非常好的问题。最后一个问题总会有些压力,这是一个很好的收尾问题,因为它涉及到一个永恒命题。
首先,让我谈谈我的经历,然后我们可以推演到下一代学生的学习。我们这一代人,是第一代必须学习如何使用计算机来做科研的人。上一代人,只用计算器、计算尺、纸和笔,我们这一代人必须学习如何使用计算机、编写软件、设计芯片、模拟物理。所以,我们是第一代使用计算机工作的一代人,而下一代将是学习如何使用AI工作的一代人,因为AI就是新的计算机。
当然,现在很多重要的科学领域,未来的关键是如何用AI来帮助做研究:
-如何利用AI帮助进行生物学研究?
-如何利用AI帮助进行林业工作?
-如何利用AI帮助进行农业研究?
-如何利用AI帮助进行化学研究?
-如何利用AI研究量子物理?
-如何利用AI推进运筹学研究?
-几乎每一个科学领域都会用到,包括计算机科学本身:即如何如何使用AI来推进AI的发展。
如果你想成为记者,就要思考如何用AI来帮助自己成为一名更好的记者。如果你想成为作家,就要思考如何用AI来帮助自己成为一名更好的作家。对吗?
未来,每个学生都必须学会使用AI,就像现在这一代学生都必须学会使用计算机一样。你要迅速意识到,AI革命是多么深远。这不仅仅是关于大语言模型,虽然大语言模型很重要,但AI将来会成为字面意义上所有事物的一部分。这是我们所知的最具变革性的技术,而且发展极其迅速。
因此,我衷心感谢大家对这个行业的关注,对于游戏玩家和游戏产业,我真诚地感激,现在,行业与我们一样兴奋,从最初使用GPU来推进AI,到现在使用AI来推进计算机图形学。
所有这些工作,包括与RTX Blackwell、DLSS4、神经渲染和神经着色的合作,都是由于AI技术的进步所推动的。目前,这些技术已经反哺到了计算机图形学的发展。
值得注意的是,如果你看计算机图形学的摩尔定律曲线,它本是在放缓,但AI的加入让它获得了超级动力,现在帧率达到200、300、400帧每秒,图像完全是光线追踪且非常漂亮。我们已经进入了计算机图形学的指数增长曲线。实际上,我们在几乎所有领域都进入了指数增长曲线。
所以,这就是为什么我认为我们的行业将会快速变化,而且每个行业都将快速变化。
感谢你们的到来,新年快乐!
来源:科技行者