摘要:“AI 的计算需求,其规模定律具有更强的韧性,事实上是超加速的。由于自主智能(Agentic AI)和推理能力的缘故,我们目前所需的计算量,比去年这个时候预期的至少多100倍。”他反复强调,AI正在经历一个转折点,“变得更有用了,更聪明了,可以推理”,同时AI
每次发完言股价就跌
作者/ IT时报记者 贾天荣
编辑/ 郝俊慧 孙妍
“去年,几乎全世界都错了。”当地时间3月18日,GTC 2025 年度开发者大会上,英伟达CEO黄仁勋开场不久便直言不讳。
“AI 的计算需求,其规模定律具有更强的韧性,事实上是超加速的。由于自主智能(Agentic AI)和推理能力的缘故,我们目前所需的计算量,比去年这个时候预期的至少多100倍。”他反复强调,AI正在经历一个转折点,“变得更有用了,更聪明了,可以推理”,同时AI模型的“训练”和“推理”所需的计算量已大幅增加。
低成本、高效能的国产AI模型DeepSeek(简称DS)震撼世界后,投资者对英伟达高价AI芯片产生了怀疑。过去两年,英伟达股价上涨逾350%。但自今年年初DeepSeek上线以来,其市值已缩水约16%。黄仁勋发表讲话后,该股收盘下跌4.10美元,跌幅达3.4%,至115.43 美元,第二天又稍有回弹至117.52美元。将近2个月时间里,英伟达股价起起伏伏,又回到了1月27日暴跌后的原点。
《IT时报》记者注意到,虽然黄仁勋的表态并未消除投资者的顾虑,但中国头部大厂们正在加速布局AI,以应对激增的算力需求。
“AI扩展定律加速”
黄仁勋强调,AI正从生成式时代迈向代理式AI和物理AI时代,计算需求将迎来飞速增长。他解释,具备推理能力的AI会对问题进行逐步拆解,并以各种不同方式得出最佳答案,而不是一次性随意给出一个结果,模型变得更加复杂,生成的 token 数量显著增加了 10 倍。为了保证模型的响应速度、使其具备交互性,避免用户在等待思考的过程中失去耐心,计算速度也得提高10倍,“因此,最终所需的计算量轻松达到原来的 100 倍”。
在黄仁勋看来,随着人工智能的扩展,推理将成为未来十年最重要的工作负载之一。大会上,英伟达正式发布Blackwell Ultra芯片,包括GB300 NVL72机架级解决方案和NVIDIA HGX B300 NVL16系统。基于现有Blackwell架构,Blackwell Ultra预计将比前代产品提升1.5倍AI性能。Blackwell架构已全面投产,新品Blackwell Ultra NVL72预计于今年下半年出货,其NVLink72+Dynamo推理性能相较Hopper提升40倍。此外,英伟达透露,下一代Rubin架构芯片将于2026年下半年推出。
英伟达还发布了AI计算机DGX Spark和DGX Station,均搭载Blackwell芯片,以进一步推动AI计算能力的升级。
在机器人领域,英伟达推出全球首款开源人形机器人功能模型GR00T N1,并携手谷歌DeepMind与迪士尼,共同开发机器人模拟用开源物理引擎Newton。黄仁勋对机器人市场充满信心,称其“很可能成为全球最大的产业。”
同时,英伟达宣布与通用汽车合作开发自动驾驶汽车,并携手T-Mobile等公司,共同推进6G时代的AI网络技术。
AI推理带火H20
此前接受CNBC Mad Money节目的采访期间,黄仁勋称赞DeepSeek-R1“非常棒”,因为它是第一个开源推理模型,会逐步思考问题,在思考时自问,并提出几种不同的答案选项。他预计到本世纪末,全球计算资本支出每年将达到1万亿美元,其中绝大部分将用于AI,英伟达在其中的占比将相当大。
对于投资者担忧市场需求减少的问题,黄仁勋还发布了一组数据来安慰投资者。他表示,Blackwell芯片推出一年来,AI行业取得了巨大进展,AI功能越来越强大了。2024年全球排名前四的云服务提供商(亚马逊、谷歌、微软和甲骨文)共采购130万片Hopper架构芯片。2025年,它们又购买了360万Blackwell芯片。预计到2028年数据中心建设支出将达1万亿美元。
图源:东方IC
在国内,“腾讯向英伟达采购数十亿元H20芯片,目标实现AI应用规模化”也成为近期业内热议话题。
去年年初,《IT时报》曾报道,由于H20性能大幅缩水,包括腾讯在内的许多企业对这款特供版芯片并不看好。然而,曾经“无人问津”的H20,如今却出现“供不应求”的局面,这一转变似乎也印证了黄仁勋所言“AI行业转折点”正在到来。
山海引擎COO彭璐对此分析,H20的热销与AI推理市场的爆发密切相关。“基础模型的训练就像制造发动机,但用户要的产品是一辆完整的汽车,H20的作用你可以理解为是用来驾驶汽车的。”彭璐指出,企业需要大量算力来训练基础模型,就像造发动机需要强大的机械臂;而当模型进入推理阶段,所需的计算资源类型则完全不同,更强调显存的承载能力。H20的优势就在于其更大的显存,使其在推理环节表现优异。
从硬件参数来看,H20相比H100、A100、A800等产品,在显存方面有明显提升。H100和A100的显存上限为80GB,而H20的最低配置已达到96GB,最新版本更是高达141GB,与H200持平。在AI推理任务中,单机显存越大,推理性能就越强,因此H20的141GB版本备受市场追捧。
目前,许多企业正考虑用H20替代H100、H200等产品,以降低部署成本。例如,部署671B满血版DeepSeek,一台H200即可满足需求,而若使用H100则需两台,如果是显存为40G版本的H100则需要6~8台,带来显著的成本和能耗压力。
H20最新版本在性能提升的同时,成本相较于前代产品更具性价比。据了解,H20 141GB版本的样机自今年3月起陆续推出,并于3月中旬开始大规模供应。目前H20的市场价格相较96GB版本有所提升,整机价格约为125万元,尽管价格仍然较高,但显存升级带来的推理优势,使其仍具有较强的竞争力。
大厂提速AI
“DeepSeek确实降低了企业使用AI模型的门槛。”彭璐向记者透露,2023年下半年至2024年全年,科大讯飞、百度、智谱等厂商对企业的AI私有化部署报价约为2000万元。而随着DeepSeek的出现,企业的年均使用成本有望降至500万元左右,显著降低了资金门槛,“但从目前来看,企业应用AI的成本依然不低”。
当前AI市场的竞争正逐步向头部企业集中。一方面,AI市场的资本投入正在收紧。一度火热的“六小龙”融资遇冷,另一方面,大厂们却正摩拳擦掌,等待在AI时代再创巅峰。
3月19日,腾讯发布2024年Q4及全年财报。记者注意到,2024年,腾讯资本开支767.60亿元,同比增长221%,创公司历史新高。其中第四季度的AI项目发展所涉及的资本开支付款就达390亿元。与此同时,腾讯的AI战略更趋明朗,“自研+开源”多模型策略正在重塑业务格局。今年2月至3月,元宝日活跃用户激增超20倍,成为中国DAU排名第三的AI原生移动应用。
一个月前,阿里巴巴集团CEO吴泳铭也宣布,未来三年阿里巴巴将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和,创下中国民营企业在云和AI硬件基础设施建设领域有史以来最大规模投资纪录。
一位业内人士透露,阿里近期在内蒙古乌兰察布最新建设的数据中心,设计总功率超过1吉瓦(1000兆瓦),预计三年内全部投入使用。大厂在AI基础设施上的布局已进入长期规划阶段,竞争格局也愈发集中。
对于英伟达而言,中国互联网大厂继续大举投资AI基建,无疑是个好消息。2月底公布的财报显示,2025财年英伟达中国区营收171.08亿美元,为史上最高,不过英伟达同时表示,在中国的数据中心收入“远低于预期”,产品出货量将“大致保持在当前比例”。
数据显示,英伟达2025财年中国营收占比为13.1%,低于上一财年19%的占比,而在更早的几年间,这个数字是2字开头。
彭璐指出,虽然短期内英伟达仍将受益于市场需求,国产芯片的技术差距正在缩小,“AI训练需求减少之后,对高密度算力的要求也会下降,这有助于国产芯片加快追赶步伐”。
只是,当前国产芯片的主要制约因素仍是制程工艺。中国大规模量产的芯片制程仍以7纳米为主,5纳米刚刚取得突破,而英伟达已进入3纳米时代。这使得国产芯片在单位硅片的计算密度上仍存在较大差距,短期内难以撼动英伟达的市场地位。
排版/ 季嘉颖
图片/ NVIDIA 东方IC
来源/《IT时报》公众号vittimes
E N D
来源:IT时报