摘要:沉寂有一段时间的OpenAI,最近对ChatGPT的图像生成功能进行升级,实现了用多模态大模型GPT-4o来非常轻易有效的生成和改图。这个功能一经推出,就刷屏社交网络。
沉寂有一段时间的OpenAI,最近对ChatGPT的图像生成功能进行升级,实现了用多模态大模型GPT-4o来非常轻易有效的生成和改图。这个功能一经推出,就刷屏社交网络。
魔戒、还珠格格、乡村爱情故事这些经典IP,都被用户用GPT-4o的这个功能,轻而易举得换成了宫崎骏的吉卜力动画工作室风格。
全球都刮起了一波“用嘴巴转吉卜力”的热潮,于是有人就问,为什么这个功能不直接在ChatGPT最新版4.5上进行呢?OpenAI的CEO Sam Altman回答说:因为GPU短缺。
这是Sam Altman借网络热度再次将话题转到“GPU不够用”,一直以来,Altman长期鼓吹,硬件才是决定未来谁能跑得更快的关键,大模型只有靠堆砌英伟达芯片才有前景。但自从Deepseek火了之后,这个话题很长一段时间已经显得不合时宜。今天借着GPT-4o火爆而老生常谈,会引发多少波澜呢?
在过去两年,GPU是AI模型的“超级发动机”,这个观点没错。到目前为止,没有它的支撑,再聪明的算法也只能“空转”,DeepSeek之前出现的“常年宕机”和最近的“不断被虚假内容腐蚀”,都验证了算力不足带来的危害。
只是Altman对英伟达芯片的需求预期非常高,虽然ChatGPT已经够强了,支持文本、图像、音频三模态,但Altman还是不断在说,他们连更高版本的GPT-4.5都推不动,因为GPU根本不够,Altman在2月27日的X帖子就已经在说:“GPU用尽了。”
2023年,ChatGPT训练就需要超过3万个英伟达GPU(根据Tom's Hardware数据),而到了2025年,OpenAI估计手握40万个英伟达GB200 GPU(根据LessWrong估算),但Altman却还在喊不够用。在他看来,就像建房子缺砖,GPU就是AI的砖头。
Altman提到,GPT-4.5的推出需要“数万GPU”,但这只是杯水车薪。问题的核心是,由于华尔街已经开始厌恶这种继续烧钱堆GPU的做法,Altman无法像以前那样募集巨额资本,采购英伟达芯片,所以现在GPU供应速度,根本跟不上AI模型“膨胀”的需求。
硬件瓶颈:GPT-4o的图像生成功能已经让GPU“过热”,甚至Altman吐槽“GPU都快熔了”。根据Fortune的报道,为了降温,他们不得不给用户设置速率限制。分阶段推出:GPT-4.5目前只对Pro用户开放,Plus用户还得等数万GPU到位。这种“饥饿式升级”,和当年iPhone先给高端用户用新技术如出一辙。那究竟多少GPU才够呢?2023年Tom's Hardware的测算是,ChatGPT训练需要3万多块GPU支撑,到了2025年,根据LessWrong的测算,OpenAI估计要40多万块英伟达GPU,才能够保障GPT-4o“续命”。至于ChatGPT-4.5需求多少?TechCrunch问Altman获得的回答是“数万GPU”,但这只是Plus用户的最低门槛。
但市场风向已变,之前微软为了支持Openai,疯狂抢GPU的现象已经不再出现,就算是有投行预估2025年整个AI行业对GPU的需求会增长300%,这也是建立在商业化能够匹配基础之上的。Altman的焦虑,是站在OpenAI角度,而要求有足够收入支撑,是整个行业的角度。
ChatGPT-4o的万物转吉卜力火爆,但是能给Openai带来多少商业回报其实很难判断,除了砸掉Adobe这类制图软件的饭碗,让生图引擎公司大感恐惧之外,这种通过猎奇心态转化OpenAI实际付费用户增长的路径,目前看并不清晰。
只是说Altman的执着依然如故,他之前就宣布OpenAI正在自研AI芯片,同时建超大型数据中心。虽然ChatGPT火爆,英伟达的股票继续暴跌。Altman什么时候能够如愿,要等待资本市场的风向再次转变。
来源:虎啸商业评论