摘要:AI芯片初创公司可能不会这么认为。在他们眼中,这不是一个威胁,而是一个能“做大做强”的巨大机会——随着越来越多的客户采用和搭建起DeepSeek开源模型,对推理芯片和算力的需求正在攀升。
《科创板日报》2月8日讯 DeepSeek R1模型的横空出世,在全球范围内一度引发了对算力长期需求的质疑,甚至重挫英伟达股价。
算力需求真的将要萎缩吗?
AI芯片初创公司可能不会这么认为。在他们眼中,这不是一个威胁,而是一个能“做大做强”的巨大机会——随着越来越多的客户采用和搭建起DeepSeek开源模型,对推理芯片和算力的需求正在攀升。
英伟达竞争对手之一Cerebras Systems主要为客户提供AI芯片,并可以通过自家计算集群为客户提供云服务,去年8月曾发布号称是“全球最快的AI推理解决方案”的Cerebras Inference。
这家公司CEO Andrew Feldman向CNBC透露,DeepSeek R1模型发布之后,公司迎来了“有史以来最大的服务需求高峰之一”。“开发者非常想用DeepSeek R1这样的开源模型取代OpenAI昂贵且封闭的模型。价格下降能推动全球使用范围扩张,就像之前的PC和互联网行业,而现在AI也正走在一条类似的长期增长之路上。”
另一家AI芯片制造商Etched也表示,自从DeepSeek发布推理模型以来,已有数十家公司向Etched伸出了橄榄枝,因此公司正在将支出从训练集群转向推理集群。“DeepSeek-R1证明了推理计算已成为每个主要模型供应商的‘最先进’方法,而推理思考并不便宜——为了将这些模型扩展到数百万用户,我们将需要越来越多的算力。”
“从DeepSeek的例子就能看到,较小的开放模型可以训练得与更大的专有模型一样强大,甚至更强,而且这可以以极低的成本实现。而小型模型的普及,将进一步催化推理时代到来。”AI芯片初创公司 d-Matrix首席执行官Sid Sheth也表示。
在芯片初创公司和业内分析师们看来,DeepSeek有望加速“从训练到推理”的AI周期,促进新芯片技术采用。
“简单来说,AI训练是构建一个工具或算法,而推理则是将这个工具实际应用于现实场景中。”Morningstar半导体分析师Phelix Lee称,AI训练非常依赖算力,但推理可以在不那么先进的芯片上进行,这些芯片可以执行较窄范围的任务。
▌“AI行业的杰文斯悖论”
实际上,DeepSeek日前的表现也反应了算力还是不够用。
2月6日DeepSeek突然暂停其API服务充值,按钮显示灰色不可用状态。对此官方声明称,“当前服务器资源紧张,为避免对您造成业务影响,我们已暂停 API 服务充值。存量充值金额可继续调用,敬请谅解!”
据国泰君安测算,假设DeepSeek日均访问量为1亿次、每次提问10次,每次提问的回复用到1000个token,1000个token大概对应750个英文字母,则DeepSeek每秒的推理算力需求为1.6*1019TOPs。在这种普通推理情境下, 假设DeepSeek采用的是FP8精度的H100卡做推理,利用率50%,那么推理端H100卡需求为16177张,A100卡需求为51282张。
其进一步表示,在以DeepSeek为首的低成本推理模型的逐渐普及下,推理成本及价格大幅削减势必会带来应用侧繁荣,由此将拉动成倍数的总算力需求提升。
未来的AI投入不再盲目“大力出奇迹”的Scaling Law,逐渐将重心从预训练转向推理,东吴证券认为,训练+推理的整体需求依然乐观,参考从2G到4G流量费用不断降低,但因为用量的指数级提升,导致整体市场规模依然快速增大。
回看19世纪,英国经济学家杰文斯发现,当通过技术提升,实现煤炭使用效率提高、成本下探,煤炭消费量反而会增加,从而提出了环境经济学中广为人知的“杰文斯悖论”。
来源:财联社