英伟达在2025 年开局不利。相关统计数据显示,今年迄今为止,这家全球领先的芯片巨头的股价已下跌超20%,公司市值与高峰期相比缩水近万亿美元。摘要:当一家公司的股价开始下跌时,人们很容易将其归咎于糟糕的运营业绩。但英伟达的情况并非如此。第四季度的收益显示,该公司的业务仍在全力以赴。收入较上年同期飙升 78%,达到创纪录的 393 亿美元,这得益于该公司数据中心部门的强劲表现,该公司在该部门生产用于运行和训
当一家公司的股价开始下跌时,人们很容易将其归咎于糟糕的运营业绩。但英伟达的情况并非如此。第四季度的收益显示,该公司的业务仍在全力以赴。收入较上年同期飙升 78%,达到创纪录的 393 亿美元,这得益于该公司数据中心部门的强劲表现,该公司在该部门生产用于运行和训练大型语言模型(LLM) 的先进 AI 芯片。
截至本文撰写之时,Nvidia 的股价较 2 月 26 日公布财报时下跌了 14%。这一下跌表明,尽管该公司增长率高且成功推出了 Blackwell 芯片,但市场对该公司的印象并不好。有些人可能将此归咎于毛利率下降。虽然公司CEO黄仁勋表示芯片需求疯狂。
然而,更大的挑战可能来自长期需求。或者说,背后的很多逻辑已经变了。
DeepSeek改变了需求?
在DeepSeek横空出世以后,英伟达曾经暴跌17%,虽然后面他们已经收复了失地。但在分析人士看来,这动摇了大家疯狂堆积算力的根基。
今年 2 月,微软取消了美国部分数据中心的租约,此举震惊了科技界。据信,微软是 Nvidia 的最大消费者之一,而数据中心容量的减少可能表明其希望减少对该行业的投资。
虽然微软可能不会放弃人工智能,但其首席执行官萨蒂亚·纳德拉 (Satya Nadella) 表示,这项技术目前还没有创造太多有意义的价值。如果一位行业领袖公开这么说,其他 Nvidia 客户(如Alphabet和Meta Platforms)在幕后可能会有同样的感受。
金融时报在最新的报道也指出,DeepSeek 的 R1 和其他所谓的“推理”模型(例如 OpenAI 的 o3 和 Anthropic 的 Claude 3.7)在用户提出请求时消耗的计算资源比以前的AI系统更多,这个过程称为“推理”。
这改变了人工智能计算需求的焦点,因为直到最近,人工智能计算还以训练或创建模型为中心。随着个人和企业对超越当今流行聊天机器人(如 ChatGPT 或 xAI 的 Grok)的应用程序的需求不断增长,推理预计将成为该技术需求的重要组成部分。
Nvidia在大型计算集群市场占据主导地位,例如埃隆·马斯克在孟菲斯的 xAI 设施或 OpenAI 与软银合作的 Stargate 项目。但其投资者希望确保 Nvidia 能够继续在专注于推理的、规模小得多的数据中心的销售上超越竞争对手。
摩根士丹利 (Morgan Stanley) 的分析师估计,未来几年美国数据中心 75% 以上的电力和计算需求将用于推理,但他们警告称,这一转变究竟如何进行存在“很大的不确定性”。
巴克莱分析师也预估,未来两年内,“前沿人工智能”(指最大、最先进的系统)的推理资本支出将超过训练资本支出,从 2025 年的 1226 亿美元跃升至 2026 年的 2082 亿美元。
根据金融时报引述巴克莱的数据预测,尽管Nvidia 将在前沿 AI 训练领域“占据 100% 的市场份额”,但从长远来看,它只能占据 50% 的推理计算份额。这意味着到 2028 年,该公司的竞争对手将面临近 2000 亿美元的芯片支出。
虽然Nvidia 首席执行官黄仁勋坚称,该公司芯片的推理能力与训练能力同样强大,因为他看到了巨大的新市场机会。但从市场的反应看来,很多厂商正在趁机崛起。
竞争对手的咄咄逼人
在英伟达众多竞争对手中,Cerebras无疑是其中最激进的一个。基于其打造的晶圆大小芯片,这家公司近年来在推理领域频频发力。Cerebras 一直将自己定位为高速推理专家,声称其晶圆级引擎 (WSE-3) 处理器可以比基于 GPU 的解决方案快 10 到 70 倍地运行 AI 模型。随着 AI 模型向更复杂的推理能力发展,这种速度优势变得越来越有价值。
为了挑战Nvidia在人工智能市场的主导地位,该公司周二宣布大幅扩展其数据中心足迹,并建立两家主要企业合作伙伴关系,使该公司成为高速人工智能推理服务的领先提供商。
据介绍,该公司将在北美和欧洲增加六个新的 AI 数据中心,将其推理能力提高 20 倍,达到每秒超过 4000 万个tokens。
Cerebras 产品营销总监 James Wang 在接受采访时表示:“今年,公司的目标是真正满足所有需求,我们预计所有新需求都将随着 Llama 4 和新 DeepSeek 模型等新模型的推出而出现。这是我们今年的重大增长计划,旨在满足对推理token的几乎无限的需求。
他们指出,通过这些新配置,公司将速度提高了 10 倍,以前需要五秒钟或更长时间才能完成的任务在 Cerebras 上基本上可以立即完成。
Cerebras 认可黄仁勋推理是下一个大趋势的说法。但他们认为,黄仁勋并没有告诉我们,推理会让整个过程慢 10 倍,因为模型必须思考并产生一堆内心独白,然后才能给出最终答案。这种放缓为 Cerebras 创造了机会,其专用硬件旨在加速这些更复杂的 AI 工作负载。
“目前使用 GPT-4 的任何人都可以直接升级到 Llama 3.3 70B 作为替代品,”Cerebras解释道。“GPT-4 的价格约为 4.40 美元。而 Llama 3.3 的价格约为 60 美分。我们大约是 60 美分,对吧?因此,成本几乎降低了一个数量级。如果你使用 Cerebras,速度就会再提高一个数量级。”
与此同时,类似Fractile、Groq和d-Matrix 等初创公司以及 Nvidia 的传统芯片制造竞争对手(如 AMD 和英特尔)推出更适合推理的芯片,因为 Nvidia 专注于满足大型科技公司对其高端硬件的巨大需求。
此前,一家名为Positron 的公司获得了巨额融资,他们也将成为英伟达的挑战者。据介绍,该公司的的芯片主要用于推理,即使用 AI 模型的阶段,而不是用于训练 AI 模型。目前,对训练芯片的需求更高,但分析师预测,随着更多 AI 应用的部署,对推理芯片的需求可能会超过训练芯片。
写在最后
其实,在英伟达的这个故事里面,还有很多绕不开的公司。例如博通和Marvell这些ASIC供应商,他们利用其装备精良的武器库,为其克服提供源源不断的武器库。这也让亚马逊、Meta和谷歌等公司拥有时间和机会来叫板英伟达。
同时,特朗普的关税政策以及出口限制,也在给英伟达带来新的风险。
当然,如果从整个市场层面上看,英伟达也应该是无忧的。例如甲骨文在周一报告称,其订单积压金额达 1300 亿美元,其中不包括星际之门的任何合同。首席执行官萨弗拉·卡兹指出,创纪录的订单量表明需求“巨大”。背后带来的GPU需求显而易见。
此外,埃隆·马斯克的 xAI 购买了 100 万平方英尺的土地,用于建设第二个孟菲斯数据中心。据介绍,新的数据中心最多可容纳 350,000 个 GPU。据报道,该数据中心运行着 10 万个 GPU,但马斯克在 2024 年 10 月表示,计划将GPU 数量增加到20 万个,该公司在 12 月透露,最终希望在孟菲斯运行100 万个 GPU。
不过,英伟达的逻辑变了,应该也是个不争事实。
关注全球半导体产业动向与趋势
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4061期内容,欢迎关注。
『半导体第一垂直媒体』
来源:半导体行业观察