五巨头争抢1240万块GPU,首富拿下2025优先交付权

摘要:日前,埃隆·马斯克的人工智能初创公司xAI已经向英伟达成功下单,订购了价值10.8亿美元的GB200 AI芯片,并凭借这笔巨额交易获得了优先交付的权利。

在AI这场军备竞赛中,全球科技巨头们似乎也有了“火力不足恐惧症”。

01

马斯克花10亿购买GPU优先交付权

10亿美元只为优先购买权?这事儿恐怕也就首付干得出来。

日前,埃隆·马斯克的人工智能初创公司xAI已经向英伟达成功下单,订购了价值10.8亿美元的GB200 AI芯片,并凭借这笔巨额交易获得了优先交付的权利。

据悉,这批GB200 AI芯片预计将于2025年1月正式交付给xAI,并将被用于强化其旗舰级超级计算集群——Colossus(巨人)。Colossus由10万颗英伟达H100 GPU组成,已经是人工智能训练集群中的佼佼者。此次加入GB200 AI芯片,无疑将进一步提升其计算能力,推动xAI在算法开发和AI应用场景中的快速迭代。

xAI作为马斯克商业帝国中的一颗新星,自成立以来便备受瞩目。此次大手笔的投资,也再次证明了马斯克对人工智能领域的重视和信心。

在社交媒体X平台上,有用户发布了这一消息,马斯克则为该消息点了赞

目前,xAI在美国田纳西州孟菲斯建立的数据中心已经初具规模,该数据中心宣称是全球最大的,用于训练xAI的AI模型Grok的新版本。为了加速AI模型的训练,马斯克甚至宣布将把数据中心内的GPU数量从10万个增加到20万个。

对于xAI来说,获得GB200 AI芯片的优先交付权不仅意味着计算能力的提升,更意味着在人工智能领域的竞争力将得到显著增强。在实际应用中,xAI计划将这些新芯片用于各种人工智能任务,包括大型语言模型的训练、图像识别以及自动化内容生成等。这些功能的提升无疑将增强用户体验,使得AI的应用更加广泛和深入。

然而,xAI看似“迫不及待”的抢购行为,不禁让人好奇,科技巨头们对GPU的渴望已经到了这个地步?

02

科技巨头们的“军备”竞赛

随着人工智能技术的迅猛发展,全球科技巨头们纷纷投入到一场前所未有的“AI算力军备竞赛”中。这场竞赛不仅关乎硬件的采购和升级,更是各大公司在AI领域战略布局与竞争的体现。

以ChatGPT为代表的生成式AI,其背后需要巨大的算力支持,这使得算力成为AI技术角逐的“入场券”。各大科技公司纷纷加大在AI服务器、AI芯片等核心算力产品的投入,以确保在未来的AI竞争中占据有利位置。

从商业角度来看,微软、亚马逊、谷歌等科技巨头正在全球范围内加速布局AI领域,以维持其市场竞争力。据报道,这些公司在AI相关项目和数据中心上的投资已超过400亿美元,并预计未来十年的支出将达到1万亿美元。这种大规模的投资不仅推动了AI技术的发展,也使得这些公司在全球市场上占据了有利地位。

而在众多花钱的项目中,购买GPU无疑成为各家的当务之急。

英伟达(NVIDIA)凭借其强大的GPU技术,在AI算力市场中占据了主导地位。英伟达的H100 GPU因其出色的性能和高性价比,被广泛应用于大型语言模型(LLM)的训练中,Meta和微软等公司都大量采购了这种GPU。

与此同时,其他科技巨头如谷歌、亚马逊和Meta等也在积极扩展其GPU资源,并着手自研芯片,以进一步增强自身的AI能力。谷歌推出了Inferentia专用AI芯片,而亚马逊则推出了Trainium芯片。这些举措显示出科技巨头们在算力布局上的多元化策略,旨在通过多种途径提升AI算力,以保持在激烈的市场竞争中的领先地位。

然而,从外购到自研,当马斯克都要购买优先供货权时,人们才发现GPU市场供需关系的紧张,而当GPU≈算力的时候,各家手里有多少GPU是否意味着有多少算力话语权。

03

科技巨头们手里究竟有多少块GPU

对于这个打开人家钱包,查看人家兜里有多少钱的好奇心,其实海外科技圈也有。

最近,LessWrong网站上发表了一篇博客,根据公开数据对英伟达芯片的产量、几大AI巨头的GPU/TPU数量进行了估算。

该播客首先对英伟达芯片产量进行估算,2024年英伟达GPU产量估算存在差异,有数据显示全年生产总量可能上限为500万块(基于每块H100等效芯片收入约2万美元的假设),也有估算认为实际产量可能在400万块左右(基于更合理的2.5万美元单价计算)。

这里其预计2024年第四季度将生产约150万块Hopper GPU,包括部分性能较低的H20芯片,因此是一个上限值。

英伟达芯片看似能生产蛮多的显卡,可问题是单微软、谷歌、亚马逊等几大科技巨头需要多少块显卡吗?根据预估,到2025年,这些AI巨头的总算力将突破1240万块等效H100的大关。届时,英伟达能提供多少块呢?预计2025年,英伟达将售出高达700万块的GPU产品。

当然,各家拥有的显卡算力是算上了已经部署的,是否真存在差额,不妨看看下面这个列表——

AI巨头GPU/TPU数量估算:

·微软:目前拥有75万至90万块等效H100的GPU资源,预计2025年其数量将达到250万至310万块。

·谷歌:目前拥有100万至150万块等效H100的GPU资源,预计2025年其数量将增长至350万至420万块。

·Meta:目前拥有55万至65万块等效H100的GPU资源,并计划购买35万个H100 GPU以增强算力。预计2025年,其GPU资源将达到190万至250万块。

·亚马逊:目前拥有25万至40万块等效H100的GPU资源,预计2025年其数量将增至130万至160万块。

·xAI:目前拥有10万块等效H100的GPU资源,预计2025年其数量将达到55万至100万块。

显然,简单加减一下,会发现英伟达如果2025年只能提供700万块GPU产品的话,显然仅仅是上面几家巨头的购买计划都无法满足。

展望2025年AI芯片市场,英伟达作为全球AI芯片市场的领导者,仍将继续保持其强大的市场影响力和技术领先地位。‌2024年AI芯片市场占有率:英伟达占据约75%,其他定制化芯片占10%-15%,剩余的10%-15%由超微、英特尔等企业瓜分。另据DIGITIMES Research数据,2024年高端服务器GPU产值预估将达到1022亿美元。

从这里看,要么超微、英特尔等企业补足份额,要么总有科技厂商买不到显卡。从这个角度看,马斯克这钱花得还是相当值的。

当然,仅凭GPU的数量并不能完全决定算力话语权。在AI领域,算力的使用和分配还受到其他因素的影响,例如算法优化、硬件架构设计以及云计算平台的支持等。虽然GPU的数量在一定程度上反映了算力的强弱,但算力话语权的形成还涉及多种因素的综合考量,包括技术能力、市场策略、算法优化以及政策支持等。

因此,在AI时代,掌握算力话语权需要综合考虑多方面的因素,而不仅仅是GPU的数量。

来源:电脑报评论

相关推荐