摘要:从上线DeepSeek API服务,到成为“第一波官宣弃用DeepSeek的公司”,AI Infra创企潞晨科技只用了不到一个月的时间。与此同时,在科技圈子里被传得沸沸扬扬的,还有伴随在创始人尤洋身上的争议。
蓝鲸新闻3月7日讯(记者 朱俊熹)从上线DeepSeek API服务,到成为“第一波官宣弃用DeepSeek的公司”,AI Infra创企潞晨科技只用了不到一个月的时间。与此同时,在科技圈子里被传得沸沸扬扬的,还有伴随在创始人尤洋身上的争议。
其中一些原因,要回溯到尤洋2月初发表过的有关部署DeepSeek的言论。包括“MaaS(Model as a Service,模型即服务)在中国短时间内可能是最差的商业模式”、部署满血版DeepSeek-R1模型每月亏损4亿元等等。在DeepSeek官方3月初公布理论成本利润率高达545%后,巨大的盈亏差异更是将尤洋和潞晨推到了风口浪尖上。
尤洋在接受蓝鲸新闻专访时提到,他依然认为自己的观点是正确的。潞晨最初是抱着“想测试一下”的想法,才决定以部署DeepSeek模型为例,开展MaaS业务。最后却发现,即便在机器能力已充分发挥的情况下,通过MaaS售卖开源模型API还是逃不开亏损的结果。
对于为何与DeepSeek官方的估算结果天差地别,尤洋也给出了他的解释。在他看来,剑指AGI的DeepSeek和基于开源模型做To B生意的MaaS厂商面对的情况是不一样的。DeepSeek可以无需过多考虑用户体验带来的影响,MaaS厂商却不能忽略客户在这方面的要求。再考虑到复杂的现实情况,机器吞吐率也会发生变化,因此导致计算的差异。
“DeepSeek开源分享了许多内容,但对于MaaS来说,关键在于大家能否自己直接复现达到理论盈利上限。”尤洋称,“以及在大家都获得优化降本的情况下,售卖DeepSeek等标准开源模型 API的MaaS业务,能否脱离当下的价格战。”
图片来源:视觉中国
DeepSeek热潮在席卷了包括模型、芯片、应用在内的AI产业链上下游后,终于也让基础设施层(AI Infra)出现在更多人的视线中。如果说应用层的企业和开发者是想用AI来“搭建房子”,AI Infra企业就是在它们身后提供施工设备和建筑材料的存在,包括所需的各种硬件、软件平台和维护服务。
2021年成立的潞晨科技是AI Infra层的明星创企之一,上个月宣布完成新一轮融资,获得北京国资加注。创始人尤洋是加州大学伯克利分校博士,现任新加坡国立大学计算机系的校长青年教授。尤洋强调,和MaaS这种基于现成模型,提供高动态、高保障、按需调用的模式不同,潞晨瞄准的是帮助企业做出私有模型、行业模型,再利用其云算力或一体机完成部署。
和尤洋有关的争议在逐渐平息,但DeepSeek掀起的波澜仍在改写中国AI产业的叙事,AI基础设施层也或将迎来洗牌。尤洋向蓝鲸新闻分享了对潞晨未来发展的构想,在算力层看到了和国产算力中心加强合作的机会;在模型层继续推进自研视频模型,借助算力优化的优势,赶在这一领域的早期阶段“抢滩登陆”;并重点关注如何实现视频模型的应用,真正进入客户的业务场景中。
以下是尤洋与蓝鲸科技的对话实录,内容在保证原意下有删减调整。
从上线到叫停,部署DeepSeek究竟是赚还是亏?
蓝鲸科技:
潞晨是2月4日开始提供DeepSeek-R1模型推理API的,又在上周末宣布一周后会暂停DeepSeek API服务。做出这两个决定分别基于什么方面的考量?
尤洋:
首先2月4号的时候,我们当时其实是想测试一下。因为我们公司本身之前就做过些推理优化,再加上当时潞晨科技的很多客户也想测试一下DeepSeek,他们在我们的平台上充了很多钱,也信任我们,觉得别的平台上有的东西我们也应该有。其实是一些客户需求的驱动,也想实测市场行情,所以我们就把这个上线了。
图片来源:潞晨科技公众号
上线之后,我觉得从使用人数上效果还是非常好的,确实很多人在用。那为什么我们现在要决定放弃这个业务呢?
又过了这大概一个月的时间之后,我发现现在遍地是DeepSeek,其实它反而成了一个技术含量不是很高的东西。现在基本所有云厂商,至少几十家中小云,包括火山云、腾讯云、阿里云这样的大企业,以及各种各样的APP都提供DeepSeek,在打价格战。所以我觉得它已经不太是一个门槛很高的东西,导致这个商业模式不是特别好了。
第一,大家好像都把DeepSeek模型下载下来,搞一些机器硬件,基于开源的基础设施软件,比如SGLang、vLLM、TensorRT(注:都是大模型推理框架),也就很快地部署起来了。由于这个没有太大的技术壁垒,又都是同样的模型,导致大家现在陷入意义不大的价格战肉搏中,跟我们的品味不太一致。
第二,我觉得既然都陷入价格战了,它的毛利目前非常低,大多数企业甚至是负很多。
再一个,我感觉MaaS现阶段不是最适合市场的一种产品形态,它承担了全产业链的亏损。这种产品形态只适合用户去做测试,但是用户一旦真的想做一个AI APP,对稳定性、延迟的要求是非常高的。而MaaS这种产品卖的是token,它是不管机器利用率的。
比如,当前有10万人的请求在占用这么多机器,可能过五分钟调用量就变小或变大。如果我的MaaS下游接入了很多APP,随时都可能有很多用户的调用变动。但我为了保障MaaS服务的商业稳定,机器要能容纳最高峰,低谷还是得放着,成本还是高峰那么多。因为我的算力不管是租还是自建,算力成本都是随时间稳定产生的。
蓝鲸科技:
你提到潞晨上线API之后,调用的人数很多,有更具体的数据吗?这一个月下来,实际上还是处于亏损状态吗?
尤洋:
是的。我们线上服务用了几十台机器。在真实场景下,我们做了一些profiling(注:指对系统的运行状态进行监测和分析)。通过profiling能大概知道我们的优化水平是非常高的,在已经达到机器能力上限的情况下,依然处在亏损状态。
蓝鲸科技:
为什么现实情况跟DeepSeek官方给出的545%的成本利润率有这么大的出入?
尤洋:
不,其实你细读一下,它也做了很多假设,它自己都说是理论营收。如果要做成一个稳定性很好的商业版MaaS的话,实际上基本是不可能达到的。
图片来源:DeepSeek知乎截图
DeepSeek把它的APP、网页版加上MaaS混在一起来统计,能收费的只是其中一部分。另外让To C的网页端、APP,用户等个一二十秒钟勉强可以接受。但是我感觉最好不要让用户等待超过15秒,因为我问一个问题,15秒还没回复,或者直接崩溃,你可以想想用户体验好吗?
我春节的时候用DeepSeek,它连这个需求都满足不了,更别说商用MaaS了。To B的MaaS要求会高得多,下游应用企业不会接受上游MaaS供应方没有基本的可靠性,导致自己的下游业务随时崩溃。
当然DeepSeek也没有把自己说成MaaS,用户体验也不是它的最高优先级,用户愿意等一小时或第二天再试也行。目前DeepSeek的情况跟很多模型企业,尤其是使用开源模型部署MaaS的第三方企业还不太一样。因为官方服务能力是供不应求的,用户对它体验的容忍度也不同,它的平台基本稳定地有超负荷的用户需求,打满硬件资源,也不需要覆盖业务的全部成本,所以它很适合MaaS模式。
但是这些中小云厂商使用开源模型,真正面向B端提供MaaS的时候,它的要求是非常高的。一旦考虑用户体验、考虑B端对延迟和稳定性的要求之后,就必须得有足量的机器,满足业务需求的忽高忽低。比如我每天输出1000亿个token,我得准备4000亿到5000亿token能力的机器,才能保证客户的运行很稳定。
同时,每家都在提供同样的模型API,客户几秒钟内就能在不同厂商之间切换。导致MaaS厂商不仅要满足高要求,还需要相互卷价格。
蓝鲸科技:
为什么DeepSeek考虑的方面会跟云厂商不太一样?
尤洋:
我觉得他们可能志存高远,不把自己定为Infra或MaaS厂商,可能也不想去赚这个钱。我觉得DeepSeek完全没必要去关心这个东西的线上体验怎么样,就是把模型训好。反正把模型都开放给大家,哪个想赚钱就拿走,它就专注于做AGI。
图片来源:视觉中国
蓝鲸科技:
这段时间争议比较大的还有你对于MaaS厂商部署DeepSeek会月亏4亿的计算,你现在依然认为自己的计算过程和方式是成立的吗?(注:尤洋在2月初的计算方式是,用4台H800机器部署满血版DeepSeek-R1,每秒可输出1000 token。要达到每日输出1000亿token的效果,需要四五千台机器。按照H800的市场价或折旧,每月机器成本4.5亿元,扣除收入后则月亏4亿元。)
尤洋:
我觉得我的观点依然是正确的。我最开始说的就是中小型云厂商,肯定不是说的DeepSeek官方,也不是说火山云、阿里云等头部企业。我跟它们又没有任何竞争,我创业如果去跟它们竞争,完全是“自杀式创业”。我说的就是类似我们这样中小型云厂商去强行烧钱,使用第三方开源模型做MaaS的话,肯定是面临巨额亏损。
蓝鲸科技:
云大厂不会面临和中小型云厂商相似的处境吗?大厂为什么能亏得起MaaS?
尤洋:
大厂的优化手段和可选方案可能比中小型厂商会更好一点,可能收回更多成本。再加上大厂肯定还有一些长远的战略性布局。腾讯云有微信、元宝,火山云有飞书、抖音。即使短期内亏损几十亿,它们日后通过这些超级APP和其他业务,是可以消耗很多token的,再通过一些额外付费或整体业务考虑,就把这个亏损补回来了。
但初创企业即使融了几个亿,可能还没大厂一个月的营销推广费高。我觉得只使用第三方开源模型以当下的MaaS模式卖API的话,肯定是亏的。如果它作为一个功能点提供到其他产品里,最终通过那个产品赚钱,是有可能的。
蓝鲸科技:
回到你的计算上,质疑声会集中在对机器吞吐率(注:指机器每秒能够处理的token数量)的计算标准上。你用的是4台H800机器每秒能输出1000个token,DeepSeek官方给出的是每台H800输出吞吐约14.8k tokens/s,为什么会存在十几倍的差距?
尤洋:
我觉得我那个数字是更符合2月初真实情况的。也有很多芯片厂商、云厂商发布了比较高的数据,但不能反映复杂任务的真实表现。
首先,输入输出序列长度变化的话,吞吐率的变化是很大的,我用的是更现实的情况。因为在实际用的时候,输入输出的序列长度是不会太短的,一长它的吞吐率就下来了。(注:当输入、输出数据的长度较长时,模型需要更多的计算资源和时间来处理,每秒处理的token数量可能会减少,影响吞吐率。)
第二,我们真正在线服务用户的时候,有的用户在做多轮对话,有的用户在做翻译,有的用户在做摘要,他们的任务也是非常复杂的。
第三,很多情况还需要联网,联网的话要读很多网页,那输入输出序列就更长了。这三个因素加起来后,我那个跑分指标其实已经算是不错的了。
第四,不同规模的厂商,可选择的方案也不同。比如DeepSeek官方发布的推理方案,最小部署资源需要数百张高速互联的H800。对中小厂商来说,MaaS后续可能有上百个模型在运行,每个模型的最佳方案和所需资源可能都不一样,在价格战的情况下,是否为每个模型都做这样的投入需要谨慎。
第五,研究推理优化的门槛相比训练等还是低得多的。每个大学实验室、公司,有一台服务器就可以做。以DeepSeek的热度,全世界在一起优化探索迭代,具体数值上会随时间有变化。
蓝鲸科技:
你在计算的时候参考的是H800和AMD的价格。那如果用H20或者像潞晨这样基于国产芯片来部署,得到的结论会发生变化吗?还是依然是亏损的?
尤洋:
比如说用H20,亏损率确实会更低一些,但还是不赚的。
蓝鲸科技:
除官方之外,其他云厂商目前想要达到545%的成本利润率水平,是否还存在一定差距?DeepSeek之前接连开源了多个推理模块,能够帮助云厂商更好地复现吗?
尤洋:
这个估算差异来自三点。第一就是刚才说的吞吐速度差异的几个原因,第二就是稳定性的差异,To B产品应该对稳定性、延迟要求非常高。第三,是否所有token都能按原价收费,比如现在实质各家C端基本免费,B端在打价格战。
图片来源:DeepSeek在社交平台上官宣“开源周”
DeepSeek当然很棒,开源分享了许多内容,但对于MaaS来说,关键在于大家能否自己直接复现达到理论盈利上限。
DeepSeek开源了很多优秀的技术组件,但只是一部分,整个产品和业务是有很多工程细节的。它可能还做了一些其他内部优化,后台也有比较复杂的系统,别人不能准确地理解、复现它。以及不同公司能投入的机器资源和承担的亏损能力,也就直接限制了方案选择。
更进一步的,假设大家都能直接拿到显著进步的优化,降低了成本,那么卖DeepSeek等开源模型 API的MaaS业务,能否脱离当下的价格战?
如果MaaS是好的商业模式,大家都在挣钱,为什么各种大小云厂商都要在卖MaaS API的同时,再费力气去推私有化的一体机和专属实例。因为一体机和专属实例是客户独占的,是稳定和不亏损的。
“我们不是MaaS厂商”
蓝鲸科技:
从这次来看,潞晨和其他Infra厂商提供DeepSeek API的方式有什么不同吗?
尤洋:
使用开源模型售卖API的MaaS业务,各家没有本质不同。我们的独到之处就是自己做了一套训练、推理、微调的系统“Colossal-AI”。但是我们发现,DeepSeek等初创企业、英伟达、微软等大厂、以及来自全球开源社区的顶尖开发人员,大家已经在推理层做了很好的开源方案。
因为推理就是一个前向传播(注:指将输入数据经过一层层计算,最终得到输出结果)的过程,它的计算结构非常清晰。全世界的研究人员已经做了多年,研究门槛也低。所以我觉得现在MaaS这种模式,可能是一个不容易做出稳定的差异化,形成产品壁垒和盈利的方式。
我仔细考虑过,像今天OpenAI和Anthropic的模型,在许多用户第一印象里还是比竞品好一个档次,并且是闭源独有的。在这种情况下,它就有稀缺性,就能形成壁垒。它去卖API,就不会面临各家都售卖标准开源模型 API的MaaS业务,只能打价格战的恶性竞争。
蓝鲸科技:
很多人会把潞晨也称作MaaS厂商,你认同这种归类吗?
尤洋:
我们不是MaaS厂商,把我们叫成AI基础设施厂商或者AI基础软件厂商比较合适。
我们现阶段主要产品就两个。一个是我们的算力平台,或者也叫大模型开发+推理平台。它其实就是基于一些世界一流的模型,比如DeepSeek、通义千问、Llama,让各个企业用自己的数据去做出自己的行业模型或者企业私有模型。用户既然有了私有模型,接着就可以去做自己的APP,还可以在企业内部使用。我们就是帮助用户把这两件事做好。
我们的推理方式是serving instance,serving就是服务,instance就是云上的这些机器。我们把机器优化好,客户可以根据自己的业务情况调整用量,比如有100万用户就用10台机器,有200万用户就用20台机器。这样的扩展对客户更稳定可靠,对我们也可以把控投入产比。
第二个产品就是帮一些中小型企业去做大模型私有化。他们的数据甚至不能出自己的公司,我们就提供一套大模型私有化的开发+推理的工具软件。需要机器的话,再把我们的一体机一起卖给他们。
我觉得在中国市场,利用DeepSeek、通义千问的能力,在珍贵的行业私有数据上去做出行业模型、企业私有模型,再用云算力或者一体机帮企业高效地部署起来。这个需求是真实的,账起码能算得清楚,利润也是可观的。
图片来源:视觉中国
蓝鲸科技:
潞晨在市场上会对标什么类型的公司?
尤洋:
我觉得现在国内的AI Infra公司都不太成熟。不是说大家技术不好,是因为国内好像没有OpenAI这样一家独一档的公司。从最开始百度发布自己的大模型工具到AI六小龙,去年豆包,现在DeepSeek、通义、元宝。不止AI Infra,整个AI赛道的企业都在不断地变化,所以不是很稳定。
还是举一些海外的例子,我们最像的应该是Together AI(注:该公司主推帮助客户对AI大模型进行训练、微调和部署,获英伟达投资、公司最新估值已达33亿美元)。其实就是想通过软件优化或者高性能计算,把算力的价值发挥到更高。算力本来能卖100万,能不能通过算力优化把它卖出130万、150万的价值。本质上就是结合用户去开发私有模型、行业模型,来做这件事情。
蓝鲸科技:
从国内AI Infra层来看,各家公司目前有做出明显的差异吗?还是提供的服务内容和质量会比较趋于相似?
尤洋:
刚才我说MaaS层目前很难做出差异,原因就是它用的模型不是自己的,各家提供的都是都一样的模型。第二,它后台的技术软件有很多开源的方案,不仅DeepSeek开源了,主流的SGLang、vLLM、TensorRT也都开源了,全世界任何开发者都可以上手优化。这两大重点都没有差异性。
对大模型私有化+一体机这个赛道而言,主要还是谁做的早,谁可能就有优势。因为它是需要一套业务流的,我做的项目越多,业务流就越熟。比如去年,我们甚至几十个人就做出了七千多万的营收。
把业务流标准化、规范化分为三部分。第一是用户的数据,我给用户建议工具或者他自己的工具,把用户数据处理好。第二步,用户无缝地使用企业版的Colossal-AI去做训练、微调。完成之后就进入第三阶段,直接通过我的一体机或者线上的算力,去把自己的模型部署上。其实我感觉还是越清晰、越简单,就越容易做出比较高效的业务流。
再加上我们开源的Colossal-AI基础版也有很多用户,给我们提供了很多反馈。我们的软件非常成熟,就容易标准化,我觉得只有这一点,可能能形成壁垒。
蓝鲸科技:
潞晨之前就有在建立自己的开源生态,这方面会对积累客户有帮助吗?
尤洋:
是,我觉得开源社区目前对我们帮助很大。其实我们好几个每年付了数百万人民币的客户,都是通过我们的开源社区转过来的。我们开源之后,也获得了很多用户的反馈,其实把我们做大模型私有化的能力整体提升了很多。
蓝鲸科技:
DeepSeek其实也引起了新一轮关于开源的讨论,你觉得它会怎么影响整个AI行业对开源的看法和发展?
尤洋:
我觉得这个看法和发展未来还会有几次变化。
DeepSeek是一家伟大的企业,因为这个阶段世界上最好的模型不在中国,DeepSeek的开源很好地起到了全民普及世界一流模型的重任。在这个阶段,我个人包括很多从业者都觉得DeepSeek这种开源模式是最好的、对中国贡献最大的,现在带动这么多资源都在布局DeepSeek和AI产业。
那要是再往后发展三五年,假如中国已经有了一个明显在世界领先的模型,我还是觉得闭源的模式是更好的。长期来看,我觉得还是需要一家大模型公司去做闭源,并且它的模型质量绝对领先,形成绝对垄断。这样有绝对利润的话,才有能力和愿意去投入更多的经费做前沿性的探索,给人类未来一个更大的普惠。
就像我们现在能享受AGI浪潮,谷歌之前做了很多贡献,包括提出Transformer、资助Geoffrey Hinton和Ilya Sutskever去做前沿研究。为什么谷歌能做这么多前沿性的布局,就是因为谷歌在搜索引擎行业形成了绝对的垄断。只有垄断了、把足够多的利润拿走了,它才有这个心思和投入去前瞻探索。
如果大模型最终变成了像服务器市场这样,大家整天在卷价格,都是巨额亏损或者勉强生存,像戴尔、IBM这些公司,虽然体量很大,但现在也没有足够的经费去做不确定性很高的前沿研究。
另一个算力优化生意:自研视频模型
蓝鲸科技:
潞晨跟其他AI Infra企业还有一个比较大的不同,就是有自研的视频模型。为什么在去年会选择布局视频大模型这块?
尤洋:
我觉得大语言模型这块的AI技术和软件,其实已经做的相对成熟了。所以未来大模型的增长点肯定是在多模态模型或者世界模型,视频大模型是它们的核心。
首先,我们第一步还是想自己完整地训一个这样的模型,把它部署起来。这样我们未来面临世界模型、多模态模型的时候,我们的基础设施是完善的。
第二,我们发现视频大模型本质上就是一个算力优化的生意。因为它的算力成本比较高,一个很短的视频可能就会涉及几百万个token。
如果有 A和B两个模型,A模型可能跑分上比B模型高15%,生成的视频质量更高,但很可能比B模型慢了十倍。最终我可能花十分钟用B模型跑出来一个视频,用A模型可能得一个多小时。那这种情况下,即便模型更好,用户可能也会选择耗时最短的。
所以它就变成一个算力优化、加速的工作了。未来3到5年,视频大模型为核心的多模态、世界模型会不断地发展变大。这个过程中,最重要的就是算力优化,要考虑如何去提升训练、推理效率,降低成本,这就是AI Infra厂商最应该关注的事情。
第三,它为什么很符合AI Infra厂商的调性。因为视频大模型输出的是一个作品,它不是一个低延时、高交互的东西,我只需要提交一些脚本式的任务需求。比如我想要一个一分钟的短视频,让达芬奇和蒙娜丽莎一起去迪拜购物中心购物吃饭,我提交完了之后就可以去吃饭或者去公园散步,它过一两个小时之后把这个视频做好。这就变成一个纯粹的算力优化、加速的工作了,我觉得比较适合AI Infra厂商去做。
蓝鲸科技:
会不会有一些AI视频从业者的看法和你提到的不太一样,他们感觉比起速度会更关注生成视频的质量。
尤洋:
我知道,我感觉他们的意思是现在视频大模型的质量还不够好。即便某个厂商现在声称自己的视频大模型是最好的,我相信一个成熟的广告工作室也不可能完全用视频大模型的生成内容替代大部分工作,或者去拍《阿凡达》、《泰坦尼克号》这样的电影。
现在视频大模型的存在感仍然还不够高,肯定会非常关注要持续提升视频质量。但是现在每提升一点视频质量,代价往往是要增长数倍的计算量和成本。视频模型对算力的要求是非常高的,对算力优化的需求也比LLM(大语言模型)更高。
图片来源:潞晨视频大模型Video Ocean截图
蓝鲸科技:
还有一种主流看法认为,像字节、快手这类在技术上有投入,同时积累了大量视频数据的大厂,可能会在视频模型上更有优势。你认同吗?相比起来潞晨的优势会是什么?
尤洋:
我肯定是认同的。我觉得要做视频大模型有几点优势,第一个就是数据上的优势,第二个是算法上的优势,第三个优势是算力优化上的优势,可能还有个优势就是产品力上的优势。
首先我觉得字节或者快手这样的大厂,它的优势主要是第一点和第四点:数据量很大,也能做出飞书、剪映、抖音这种级别的产品,产品力方面肯定是非常强的。
我觉得像我们这样的公司,优势肯定就是第三点的算力优化上。再一个本身我们帮客户去交付私有模型、行业模型的时候,对算法也是需要非常了解的,否则我们无法把它做成标准化的东西,所以第二点也是有优势的。
那如何去应对我们在第一点、第四点的劣势呢?首先,我们其实也通过合法手段购买收集了很多带版权的数据,我感觉这个阶段其实是够的。因为数据量从10亿到100亿,如果都是差不多的视频内容和模式的话,提升也不是太大。在私有化交付时,因为是使用客户的私有数据,所以在数据上的差距也不会特别大。
第四点,我们的劣势是产品力方面的。作为一个To C或者To开发者的产品,我们是肯定不可能做得过抖音、快手这种级别的APP。他们经验非常丰富,那我们就把自己的目标定得清晰一点。
我们的视频大模型就是一个虚拟相机,而不是剪映。因为现在我要在抖音上发一个视频的话,也是先用相机拍出原始的视频素材,再用剪映等工具去加工。我现在就细分到一个点,就要做虚拟相机,用大模型生成原始视频素材。后边工具链的内容,我先不要太关注,否则什么也做不好。
蓝鲸科技:
那潞晨的Open-Sora视频大模型和国内外现有的视频模型比,在哪些方面会有优势?
尤洋:
我觉得性价比是最高的,同等预算情况下,它可以做到是最好的。模型质量不差,但肯定不是跑分最高的,参数量比别人小三倍、五倍。我们上一版Open-Sora只有1亿参数,可能很多设备上都能放得下。下一阶段就是准备做一个10亿参数版本的Open-Sora。
蓝鲸科技:
自研视频模型会分散潞晨的资源和精力吗?
尤洋:
我觉得还好吧,其实很快就可以做成一个盈亏平衡的生意了。这是一脉相承的,最开始做算力优化的软件,然后结合算力做云和一体机,再加上算法和数据进一步做模型。
自研视频模型就相当于我们最大的私有化模型,在国内市场做大模型私有化+一体机的生意。比如说我在国内做了十个模型私有化单子也就两千万,已经算不错了。但是我现在把这一个视频大模型做好,我可能一年就收获四千万,相当于它是一个很大型的项目。
蓝鲸科技:
现在潞晨的客户对视频模型已经有需求了吗?
尤洋:
是有一些需求的。随着视频质量逐渐变好,很多做媒体的、广告的、影视行业的B端客户都会对视频大模型感兴趣,他们本来就是我们目标客户的一部分。我们也上线了一个新的视频开发工具Video Ocean,其实就面向这些做电商、短视频的博主。目前我们对这个还是比较充满信心的。
蓝鲸科技:
自研模型会成为AI Infra厂商的一个竞争优势吗?
尤洋:
我觉得这是一个很好的时机,因为视频大模型还没有头部语言模型那么大,我不需要投入几亿美金才能开始去做这个事情。如果这个时候能够尽早布局、抢滩登陆,我觉得还是有机会的。如果现在去自研Llama、DeepSeek这样的,我感觉已经不太可能有商业机会了。
后DeepSeek时代的机会
蓝鲸科技:
DeepSeek这波受到关注的原因之一是,因为硬件层面受限,所以他们在算法、软件层面做优化来实现对算力的最大化利用,这方面是否也是潞晨一直在做的方向?
尤洋:
是,其实我们跟DeepSeek团队的一些成员也进行过交流,他们确实有这方面的需求。因为中国企业的算力是严重受限的,不像OpenAI等那么自由。
DeepSeek跟我们的区别是,我们是要服务好我们的中小型客户、传统大型企业。他们其实可以更专注于把自己的模型训练好就行。哪怕把全部手写特定策略,软件改得没有任何通用性都可以,因为所有优化都是为自己的特定模型量身打造的。我们则需要满足不同场景,整体保持通用性,所以还是很不一样的。
蓝鲸科技:
潞晨用昇腾芯片来部署DeepSeek的时候,华为那边有提供什么帮助吗?还是主要由潞晨自己的团队在做这方面的工作?
尤洋:
华为帮助很大。因为优化涉及多个不同层级的软硬件协同,华为有比较庞大的工程团队,对各个层级做了很多投入和开发,一起推进效率会更高。
蓝鲸科技:
很多人认为DeepSeek对国产算力中心也是非常大的利好。潞晨之前有和各地算力中心建立合作吗?之后会加强这类合作吗?
尤洋:
对,因为算力中心现在最缺的就是软件优化。他们其实买了很多卡,但是这些卡现在用的不是特别好。我们其实就是帮他们提升算力优化的能力,来把它的算力卖出更好的价格,以及把我们的大模型私有化+算力云跟国产算力中心结合起来。我觉得是很好的机会。
蓝鲸科技:
2024年一直被说是AI应用落地之年,今年一开年DeepSeek也带动很多应用类公司开始接入AI。对潞晨这样的AI Infra企业来说,这会是一个比较好的机会吗?
尤洋:
我觉得是的。我相信AI在各个企业里边都是有很大价值的,只不过现在可能还是需要一些手段,让AI价值体现得更直接一点,不仅仅限于一个客服或者聊天软件。
蓝鲸科技:
这方面要靠什么手段来推动?
尤洋:
最底层、最本质的还是AI模型的质量更好。目前Agent(智能体)的模式和最终能力还是受限于背后的模型能力。LLM现在很多Agent的东西,其实在模型质量提升之后,就不用靠人工做那么多的业务流来搭建了,很多AI都可以直接搞定。再一个就是视频模型质量的进一步提升。
蓝鲸科技:
潞晨在商业模式上还有什么方面是待完善的?
尤洋:
我们的营收过去几年都实现了高速的增长,肯定是达到了我们的预期,也确实给客户带来了价值。在保持现有业务增长的基础上,下一步值得完善的就是我刚才说的视频大模型、多模态大模型。如何让它快速进入用户真正的业务场景里边,实现未来基于视频、多模态大模型的一些应用,是我们未来重点关注的。
来源:蓝鲸新闻