摘要:当地时间2月26日,英伟达发布2025财年(2024年1月-2025年1月)的全年业绩。英伟达2025财年整体营收创下历史新高,达到1,305亿美元,同比增长114%;年度净利润为729亿美元,同比增长145%。
当地时间2月26日,英伟达发布2025财年(2024年1月-2025年1月)的全年业绩。英伟达2025财年整体营收创下历史新高,达到1,305亿美元,同比增长114%;年度净利润为729亿美元,同比增长145%。
近年来,受益于人工智能发展对于高性能芯片及相关软硬件的强劲需求,英伟达受到全球资本关注。截至2月26日收盘,英伟达股价达到131.28美元,市值达到3.2万亿美元,在全球领军科技公司市值中位居前列。作为人工智能芯片制造商的英伟达,成为人工智能发展新阶段的最大受益者。
在英伟达2025财年业绩发布之际,至顶智库围绕英伟达历年业绩、数据中心业务与科技巨头资本支出情况、企业对外投资情况、AI产品线最新进展等方面进行解读。
英伟达在2025财年整体业绩表现亮眼。公司总营收达到1,305亿美元(同比增长114%);净利润上升至729亿美元(同比增长145%);毛利率进一步上升至75.0%(同比增长2.3%)。分板块来看,数据中心业务达到1,152亿美元的营收(同比增长142%),占总营收比重达到88%,成为英伟达第一大营收板块;游戏与AI PC业务收入为114亿美元;专业视觉收入为19亿美元;汽车与机器人收入为17亿美元。
在人工智能快速发展的背景下,英伟达整体业绩持续向好,尤其是2024和2025财年呈现爆发式增长。2024财年英伟达总营收大幅跃升至609.22亿美元(同比增长126%),2025财年总营收进一步提升到1,304.97亿美元(同比增长114%)。在当前大模型从训练端到推理端转变,从通用向专用场景落地,从自动驾驶到具身智能等领域不断发展的新阶段,人工智能产业各环节对于算力需求依然巨大,英伟达未来营收规模有望不断达到新高。
分业务板块来看,从2023财年开始,数据中心业务成为英伟达第一大业务板块,营收占比从2023财年的55.6%攀升至2025财年的88.3%。2022年底,OpenAI推出ChatGPT火爆全球,AI大模型驱动人工智能产业进入新发展阶段,全球科技巨头资本支出大幅增长,持续加大力度建设AI算力等基础设施,不断采购高性能芯片。英伟达在全球AI芯片产业的主导地位短期内难以撼动,在数据中心AI芯片市场拥有超过90%的市场份额。曾作为英伟达核心业务的游戏板块占比逐年下降,从2020财年的50.5%下降至2025财年的8.7%。此外,专业视觉、汽车等业务占比相对较低,营收占比尚未超过10%。
分地区来看,美国业务在英伟达营收占比逐渐增加,从2020财年的8.1%上升至2025财年的46.9%,成为英伟达营收贡献最大的地区。美国作为人工智能、云计算、自动驾驶等领域的全球领先者,以亚马逊、谷歌、微软、Meta为代表的科技巨头不断扩大美国本土数据中心的建设规模,对高性能GPU及算力基础设施的需求持续增加。中国大陆地区(含香港)营收占比不高,2025财年占比不到15%,原因在于美国政府近年出台多项管控措施,限制英伟达高性能芯片等产品对华出口。2022年8月,英伟达称被美国政府要求禁止向中国出口两款旗舰GPU芯片A100和H100。2023年10月,美国商务部工业和安全局(BIS)更新发布对华半导体出口管制规定,进一步收紧AI芯片限制措施,英伟达在2022年芯片出口禁令之后为中国市场推出的A800、H800等“特供”芯片也被纳入限制。
多重因素利好英伟达数据中心业务
数据中心作为当前英伟达第一大营收来源,以A100、H100、GB200为代表的AI高性能芯片又被视为数据中心的核心产品。为进一步探讨大模型发展对于英伟达数据中心业务的影响,至顶智库将围绕“扩展定律、开源模型、科技厂商资本支出、英伟达核心优势”等多角度进行具体分析。
Scaling Law持续推动人工智能产业发展,推理模型助推芯片用量增长
当前,人工智能的发展遵循三条AI扩展定律,分别是预训练扩展、后训练扩展和测试时扩展,三条定律共同反映近年AI大模型的演变过程。
Scaling Law三阶段
在预训练扩展阶段(Pre-Training Scaling),通过提升训练数据集规模、模型参数数量以及增加计算资源,开发者能够实现模型的智能化水平和准确率的提升。随着文本、图像、音频、视频等多模态数据不断被用于训练AI模型,预训练扩展定律的适用性还将持续;在后训练扩展阶段(Post-Training Scaling),能够进一步提高模型针对所需场景的专业性和相关性,使模型不仅学会基础技能,更能教会模型适用其预期工作的技能。后训练扩展定律通过微调、剪枝、量化、蒸馏、强化学习和合成数据增强等技术,进一步提高预训练模型的性能;在测试时扩展阶段(Test-Time Scaling),传统模型会根据用户提示快速生成一次性答案,而使用测试时扩展技术的模型则会在推理过程中进行额外的计算,以便在得出最佳答案之前对备选答案进行推理,进而使模型能够探索不同的解决方案。
当前,AI推理模型正在快速发展。全球范围内OpenAI o3-mini、Gemini 2.0 Flash Thinking、DeepSeek-R1等推理模型不断推出,推理模型性能的不断提升将需要更大规模的计算芯片。至顶智库认为,推理模型需要大量的计算资源进行推理,意味着需要不断扩展算力来为复杂问题解答、编码和多步骤规划等应用场景提供算力支撑,将不断激发市场对于英伟达高性能芯片的需求。
DeepSeek模型的横空出世推动更多模型开源,开源模型的用户规模不断扩大
随着DeepSeek-R1模型的发布,更多AI模型得以开源。春节过后,百度、阿里两家大厂纷纷官宣模型开源。2月14日,百度官宣即将发布的文心大模型4.5系列于6月30日起正式开源。2月25日,阿里云官宣视频生成大模型万相2.1(Wan)开源。
开源模型的优势在于其能够打破传统封闭的技术壁垒,提供更广泛的使用和修改权利。研究者、开发者和企业不再需要从零开始构建模型,而是在已有基础上进行模型迭代和优化,这一转变极大降低了AI技术的应用门槛,让更多用户能够快速部署并定制模型。
此外,开源模型还能够促进跨行业的应用。政务、医疗、金融、教育等领域用户可以通过使用开源模型解决实际问题,实现技术在各行业的普及和深度应用。通过开源模式,不仅降低了大模型的使用和部署成本,也激发开发者社区的合作,推动全球AI技术生态系统的共同进步。开源模型使用范围和用户群体的不断扩大促使模型算力需求增加,也将推动英伟达芯片需求的不断增长。
全球科技巨头加大资本支出,数据中心投资持续旺盛
近年来,随着大模型的不断发展和应用场景的拓展,全球科技巨头纷纷加大数据中心的投资力度,不断提高算力基础设施方面的资本支出。
从全球科技巨头的动向来看,2025财年谷歌计划投资750亿美元用于资本支出,主要用于AI基础设施,包括服务器和数据中心;微软计划投资800亿美元,主要用于AI基础设施和数据中心建设;亚马逊计划投资1,000亿美元,主要用于AI服务和AWS基础设施;Meta计划投资2,000亿美元建设新的数据中心,其中2025财年Meta将投资600亿-650亿美元,主要用于AI基础设施和数据中心;2025年初宣布的Stargate(星际之门)计划,提出在未来四年将投资5,000亿美元为OpenAI建造AI基础设施,OpenAI也考虑未来在美国16个州建立数据中心。同时,英伟达也作为Stargate计划的重要参与成员。AWS、Google Cloud、Microsoft Azure、Oracle Cloud将在全球范围的数据中心采用更多英伟达GB200芯片。
从国内科技大厂来看,未来三年阿里巴巴将投入超过3,800亿元人民币,用于云和AI硬件基础设施建设。这一金额不仅超过了过去十年的总和,也标志着阿里巴巴在人工智能(AI)和云计算领域的战略升级;字节跳动计划2025年投资超120亿美元用于AI芯片,覆盖国内和国际市场,其投资步伐预计将进一步加速。
2019年以来,英伟达芯片的总算力规模呈现逐年增长走势。根据Epoch AI统计,2021-2023年Ampere架构芯片(A100为代表)所消耗的算力逐年增长。用于更高性能的Hopper架构芯片(H100为代表)所消耗的算力自2023年以来呈快速上涨趋势。随着接入各类开源和推理模型的企业和机构逐渐增多,庞大的用户使用量对于数据中心服务器造成较大压力。在此背景下,全球主要云厂商将不断扩大数据中心规模,英伟达高性能芯片所产生的算力规模还会持续增加。
2019年以来英伟达总算力规模持续增长
至顶智库认为,为顺应大模型训练和推理对于算力消耗的急剧增长,全球云厂商将持续增加数据中心的资本开支。作为提供人工智能算力基础设施的核心企业,英伟达将受益于大模型发展所带来的算力增长趋势。
英伟达技术积累和生态构建优势显著,数据中心业务市场地位依然稳固
近年来,全球主要芯片制造商(如AMD、Intel)以及云服务提供商(如Google、AWS)也在积极开发各类AI芯片,不断加剧市场竞争。但英伟达多年来在高性能计算芯片领域的技术积累和生态构建方面的优势依然显著。
一方面,英伟达在GPU和AI加速芯片领域的技术积累深厚,尤其在深度学习和高性能计算(HPC)领域。其Ampere架构和Hopper架构的GPU被广泛应用于数据中心和AI模型训练场景,成为大规模数据中心的核心引擎。此外,英伟达的CUDA平台和软件工具(如cuDNN、TensorRT等)使得开发者可以对AI模型进行训练和优化,巩固其在AI芯片领域的技术优势。
另一方面,英伟达作为AI和高性能计算的生态建设者,其软硬件一体化解决方案使得开发者和企业在使用硬件产品时,可以获得一整套优化的软件工具和框架支持。英伟达在AI模型训练推理、自动驾驶、科学计算等多领域的技术生态优势远超竞争对手。
基于上述分析,至顶智库认为,DeepSeek相关开源模型的发布没有对英伟达业务造成明显影响,反而为其带来市场红利,将持续利好英伟达最大营收来源数据中心板块的发展壮大。
2024英伟达对外投资情况
根据至顶智库统计,英伟达在2024年的对外投资主要集中于人工智能领域,相关投资企业数量近20家,涵盖AI搜索、智能交互、基础设施、AI模型等多个方向。在基础设施方面,英伟达投资Scale AI等数据标注公司;在模型方面,投资OpenAI、Mistral AI等顶尖大模型研发机构;在应用方面,与Kora.ai、Twelve Labs等不同行业企业展开合作,旨在巩固其在全球AI生态中的核心地位。
英伟达在云计算领域收购Shoreline.io,强化其在云服务方面的能力,更好支撑其AI在云端的发展。在芯片领域,英伟达投资光子芯片开发商Xscape Photonics,表明其持续关注芯片技术发展,布局未来硬件创新方向,以巩固其在芯片行业的领先地位。此外,英伟达投资Figure AI和Bright Machines,体现其在机器人领域的前瞻性布局。
英伟达在医疗健康与自动驾驶等领域也进行积极布局。英伟达投资Relation Therapeutics EvolutionaryScale等公司,推动其硬件与医疗健康行业深度绑定;投资Waabi、Outrider等公司,提升其产品在自动驾驶领域的应用能力。
通过上述多项投资与收购,英伟达在多个领域与领先创新企业建立紧密的合作关系,构建起以英伟达技术和产品为核心的生态合作体系,树立在全球前沿科技的领导地位。
英伟达在人工智能领域的最新进展
Agentic AI
作为下一轮生成式AI的变革浪潮的代表,AI Agent使应用不再局限于简单的聊天机器人交互,而是能够通过精密的推理和规划解决复杂的多步骤问题,因此用于推理的计算量也在随着测试时扩展(Test-Time Scaling)而激增。为了帮助企业更好地构建AI Agent,英伟达采取不直接面向企业客户而是与IT领域软件开发者合作的市场策略,通过整合技术实现新能力,为企业提供一系列构建AI Agent的工具。
2025年1月英伟达与合作伙伴推出用于构建AI Agent应用的解决方案, 涵盖NVIDIA NIM (AI微服务涉及CUDA系列开发工具)、NVIDIA NeMo(端到端云原生框架,可以让用户不受位置限制,灵活地构建、定制和部署生成式 AI 模型,包含训练和推理框架、护栏工具包、数据管护工具和预训练模型)以及领先提供商的AI Agent框架,提高检索精度并减少智能体工作流的延迟,帮助企业构建和部署定制化AI Agent。
NVIDIA Agentic AI流程
NVIDIA Agentic AI解决方案
英伟达推出的Nemotron模型系列,进一步推动AI Agent发展。英伟达在2025年1月宣布推出 Llama Nemotron 系列开源模型,该模型基于Llama构建,能够帮助开发人员在一系列应用程序中创建和部署AI Agent,具有客户支持、欺诈检测以及产品供应链和库存管理优化等功能。NVIDIA Llama Nemotron模型经过精简和训练,采用NVIDIA的最新技术和高质量数据集增强代理功能,在指令跟踪、聊天、函数调用、编码和数学方面表现出色,同时进行大小优化,可在广泛的 NVIDIA 加速计算资源上运行。NVIDIA Llama Nemotron模型可轻松部署在云端、数据中心、PC和工作站,并作为教师模型进行蒸馏,帮助企业快速创建AI Agent。
英伟达针对企业构建AI Agent推出的一系列解决方案正在改善各行各业的工作模式,为用户带来全新体验。其AI Agent解决方案阵容正在不断壮大,继用于构建功能为视频搜索与总结的智能体解决方案后,英伟达推出的全新解决方案旨在变革网购和实体店购物的体验。该方案基于 NVIDIA AI Enterprise 和 NVIDIA-Omniverse平台构建,能够帮助开发人员创建 AI 驱动的数字助手,以配合人类工作并提供支持,数字助手可以提供企业内最优秀的销售员、造型师或设计师的专业知识,以提高客户满意度和员工效率。借助AI Agent解决方案提供的 NVIDIA NeMo微服务,AI 购物助手可以理解基于文字和图像的提示,完成搜索多种商品、搭配服装等复杂任务。AI Agent可以智能、个性化的方式来推荐配套产品或升级产品,由此增强客户体验、提高转化率、降低退货率,并增加平均订单金额。
物理AI 开发平台—NVIDIA Cosmos
人工智能的下一个发展方向是物理人工智能(Physical AI)。一般而言,开发物理 AI 模型通常需要耗费大量资源并且成本高昂,开发者需要获取真实世界的数据集,并对其进行筛选、整理和准备,以便用于模型训练。2025年1月英伟达推出的NVIDIA Cosmos平台通过生成式AI方式加速这一过程,能够有效降低物理AI的开发成本。作为用于物理 AI 的开发平台,NVIDIA Cosmos由世界基础模型、高级tokenizer、护栏和加速视频处理流水线组成,将推动自动驾驶汽车(AV)和机器人等物理 AI系统的发展。
NVIDIA Cosmos示意图
其中,Cosmos 世界基础模型(WFM)使用包括文本、图像、视频和运动在内的输入数据来生成和仿真虚拟世界,以准确模拟场景中物体的空间关系及其物理交互,使开发者能够轻松生成大量基于物理学的逼真合成数据,以用于训练和评估其现有模型。具体而言,Cosmos 世界基础模型是一套用于物理感知视频生成的开放式扩散和自回归Transformer 模型,这些模型已基于 2,000 万小时的真实世界人类互动、环境、工业、机器人和驾驶数据。该平台的视频和图像tokenizer,将视频转换为不同视频压缩比的标记,用于训练各种Transformer模型。全球主要的机器人和汽车公司如1X、Agility Robotics、小鹏汽车,以及自动驾驶汽车开发商 Uber正在采用Cosmos 加速模型开发。
数字孪生—NVIDIA Omniverse
NVIDIA Omniverse是一个包含 API、SDK和服务的平台,使开发者能够将 OpenUSD、NVIDIA RTX渲染技术和生成式物理 AI 集成到工业和机器人用例的现有软件工具和仿真工作流中。英伟达构建Omniverse 的目的是让万物都能拥有“数字孪生”,即产品、流程和设施的虚拟表示,企业能够用其来设计、模拟和操作其实体对应物。NVIDIA Omniverse平台于2019年上线,2021年Omniverse Enterprise正式发布,2022年Omniverse Cloud云平台发布,同年NVIDIA OVX系统发布。2025年1月,英伟达宣布推出生成式 AI 相关解决方案,将 NVIDIA Omniverse进一步扩展至物理 AI 应用,如机器人、自动驾驶等领域。NVIDIA Omniverse通过搭配最新发布的 NVIDIA Cosmos世界基础模型,组合成一个合成数据倍增引擎,开发者能够使用该引擎生成大量可控、逼真的合成数据,并且可以在 Omniverse 中创建 3D 场景并对输出的图像或视频进行渲染,进而将这些图像或视频与文本提示一起用于调整 Cosmos 模型,生成用于物理 AI 训练的合成虚拟环境。
NVIDIA Omniverse 应用场景示意图
此外,英伟达同时发布四个Omniverse解决方案,使开发者能够更加轻松地构建基于通用场景描述的 Omniverse 物理 AI 数字孪生。解决方案涵盖:1)Mega:由 Omniverse Sensor RTX API 驱动,用于在部署到真实设施中前,先在工厂或仓库的数字孪生中大规模开发和测试机器人集群;2)自动驾驶汽车仿真:由 Omniverse Sensor RTX API 驱动,使自动驾驶汽车开发者能够播放驾驶数据、生成新的基准真实数据并执行闭环测试,从而加快开发流水线;3)Omniverse Apple Vision Pro 空间流式传输:帮助开发者创建将大型工业数字孪生以实时渲染无缝流式传输到 Apple Vision Pro,在提供高保真视觉效果的同时,也不会影响保真数据集的细节;4)适用于计算机辅助工程(CAE)的实时数字孪生:基于 NVIDIA CUDA-X加速库、物理 AI 库和 Omniverse 库构建的实时物理可视化参考工作流。
自动驾驶—NVIDIA DRIVE Hyperion
CES 2025期间,英伟达公布了NVIDIA DRIVE系列汽车业务的最新进展,推出基于全新NVIDIA AGX Thor系统级芯片(SoC)的NVIDIA DRIVE Hyperion自动驾驶平台,并宣布将与丰田汽车合作使用NVIDIA DRIVE AGX车载计算平台开发下一代“自动驾驶汽车”。英伟达创始人兼CEO黄仁勋认为:“自动驾驶汽车的变革已经到来,汽车将成为最大的AI机器人产业之一。NVIDIA正凭借二十年来在汽车计算、安全方面的专业知识以及CUDA AV平台来改变价值数万亿美元的汽车行业。”
从硬件层面来看,NVIDIA DRIVE Hyperion是首个端到端自动驾驶平台,集成先进的系统级芯片NVIDIA AGX Thor、传感器和安全系统,专为下一代车辆设计。该平台配备传感器套件以及主动安全和L2级驾驶堆栈,已被梅赛德斯-奔驰、捷豹路虎和沃尔沃等汽车安全领域的全球领军企业采用。其中,NVIDIA AGX Thor作为Orin的升级版,计算能力达到前代芯片的20倍。从系统层面来看,“DRIVE OS”是首个被认证达到功能安全最高标准的汽车操作系统。
自动驾驶时代已经到来,汽车产业需要大量的算力来训练自动驾驶能力,甚至利用人工智能来改造传统汽车生产线。在此背景下,NVIDIA打造赋能智能驾驶的三类计算系统:用于AI模型训练的NVIDIA DGX、用于测试驾驶和生成合成数据的Omniverse以及车载超级计算机DRIVE AGX。
NVIDIA赋能智能驾驶的三类计算系统
此外,英伟达利用Omniverse和Cosmos创建的“AI数据工厂”,通过合成驾驶场景大幅扩展训练数据。包括OmniMap:融合地图和地理空间数据,构建可驾驶的3D环境;NRE:利用传感器日志生成高保真的4D仿真环境,并为训练数据生成场景变化;Edify 3DS:从资产库搜索或生成新资产,创建用于仿真场景。通过相关技术,NVIDIA将数百次的驾驶场景扩展为数十亿的有效里程,大幅增加实现安全和先进自动驾驶功能所需的数据集规模。
NVIDIA赋能汽车产业的“AI数据工厂”
NVIDIA DRIVE AGX Orin于2019年发布,其作为英伟达最为主流的智能驾驶系统级芯片,被广泛应用于众多智能汽车之中。Orin芯片每秒可进行254万亿次加速计算,能够处理作出安全、实时驾驶决策所需的传感器数据。芯片采用7nm制程工艺,集成高达170亿个晶体管。全球智能汽车代表企业如沃尔沃、比亚迪、蔚来、理想、小鹏、极氪、小米、智己、昊铂等相关车型均搭载Orin芯片,英伟达与众多车型的合作也确立其当前智能驾驶芯片市场的领导地位。
DRIVE Thor是DRIVE Hyperion自动驾驶平台搭载的核心系统级芯片,于2022年9月首次亮相,近期也进行全面更新。其作为NVIDIA DRIVE Orin的后续产品,计算性能高达1,000 TFLOPS,具备加速推理任务的能力,可以帮助自动驾驶汽车识别行人、适应恶劣天气等情况。基于NVIDIA Blackwell架构的DRIVE Thor芯片针对严苛的工作负载进行优化,包括生成式AI、视觉语言模型和大语言模型的工作负载等。简化后的架构利用强大的NVIDIA加速计算功能,并行运行端到端自动驾驶汽车堆栈和经过验证的安全堆栈,增强通用性、减少延迟并提高安全性。此外,DRIVE Thor还可以提供丰富的座舱功能、安全可靠的高度自动化驾驶和无人驾驶功能,并将所有功能整合至同一个集中式平台上。
从乘用车落地情况来看,全球最大电动车企比亚迪推出的下一代电动车型将搭载NVIDIA DRIVE Thor。新能源汽车品牌广汽埃安旗下高端豪华品牌昊铂下一代电动汽车将采用DRIVE Thor平台,新车型将于2025年实现量产,可实现L4级自动驾驶。小鹏汽车将利用NVIDIA DRIVE Thor平台作为其下一代电动汽车的“AI大脑”,新一代车载计算平台将赋能XNGP智能辅助驾驶系统,实现自动驾驶和泊车、驾乘人员监控等功能。
机器人—NVIDIA Isaac GROOT
英伟达在CES 2025推出用于合成运动生成的NVIDIA Isaac GROOT机器人开发平台,该平台可帮助开发者生成海量的合成运动数据,以便通过模仿学习来训练人形机器人。
NVIDIA Isaac GROOT开发平台
从上图(NVIDIA Isaac GR00T机器人开发平台)可以看出,通过GROOT-Teleop工作流,用户可以借助Apple Vision Pro在数字孪生环境中捕捉人类动作,人类动作会被记录并作为标准,在仿真环境中由机器人模仿学习。随后,GROOT-Mimic工作流会将捕捉到的人类示范扩展成更大的合成运动数据集。再基于NVIDIA Omniverse和NVIDIA Cosmos平台构建GROOT-Gen工作流,通过3D提升技术扩展数据集。该数据集可作为机器人策略的输入,在 NVIDIA Isaac Lab中,教会机器人如何在环境中高效且安全地移动。
来源:至顶网