创下史上最大SaaS融资记录后,CEO却说“现在上市太愚蠢”

360影视 2025-01-11 18:35 2

摘要:Databricks成立于2013年,成立十一年来一直是亏损状态,不过这并不影响投资人对它的看好,起初Databricks只想融资30亿至40亿美元,投资人的集中争抢,Databricks最后才定了100亿美元的额度。

作者 | 常棣

编辑 | 葛覃

最近SaaS圈的大事,莫过于Databricks完成了J轮100亿美元融资,也是其有史以来规模最大的一轮融资,融资之后估值达到620亿美元。

100亿美元是什么概念,比OpenAI最新(2024年10月份)一轮融资66亿美元还多,这就是数据+AI的当下价值。

Databricks成立于2013年,成立十一年来一直是亏损状态,不过这并不影响投资人对它的看好,起初Databricks只想融资30亿至40亿美元,投资人的集中争抢,Databricks最后才定了100亿美元的额度。

“今年进行IPO是愚蠢的,所以我们肯定会等待”

在2024年底旧金山举行的一场活动中,Databricks首席执行官AliGhodsi解释了为什么他至少要等到2025年才上市。

“2024年是选举年。我们希望获得一些稳定性——人们担心利率、通货膨胀……所以我们说,看,今年进行IPO是愚蠢的,所以我们肯定会等待”,Databricks首席执行官AliGhodsi表示。“最早的IPO理论上可能是2025年,然后有锁定期,因此员工获得流动性的时间太长了。”

消息人士称,作为交易的一部分,该公司计划向参与此轮融资的投资者发行优先股。对于员工来说,Databricks计划用这笔资金从早期员工手中回购即将到期的限制性股票单位,并支付相关税费。不过观察Databricks的发展势头,员工可能会将更多股票放在解禁期结束之后出售。

当有了如此之多的资金之后,上市对于Databricks并不是优先事项,尽管当下资本对于数据和AI的追捧到了高峰。

“这是人工智能泡沫的顶峰。一家只有五个人、没有产品、没有创新、没有知识产权(只有刚毕业的毕业生)的公司价值达到数亿美元,有时甚至数十亿美元”,Ghodsi直言,“这些什么都没有的初创公司估值却高达数十亿美元——这就是泡沫。”

某种程度上,现在是上市的好时间,Databricks在融资之后的估值已经超过其竞争对手的市值,Snowflake目前的市值约为560亿美元,“人工智能泡沫”也忒大幅推高Databricks的受欢迎程度。

话虽如此,Ghodsi并没有试图在所谓的“人工智能泡沫”破灭之前挤时间上市。Ghodsi仍未排除Databricks在2025年上市的可能性。不过他也表示上市也可能在2026年。

正如本轮创纪录的融资所传递出的信号,上市筹集资金的重要性远不如10年前。

投资者为何集中看好Databricks?

投资者可能不一定懂技术,但一定会看财务数字,下面一组数据直接证明了Databricks的潜力。

截至2024年10月31日第三季度同比增长超过60%预计截至2025年1月31日的第四季度收入将超过30亿美元,自由现金流为正持续保持非GAAP在80%以上拥有500多个客户,年收入超过100万美元该公司智能数据仓库产品DatabricksSQL的营收达到6亿美元,同比增长超过150%

投资团队也很豪华,由ThriveCapital领投。除了Thrive,本轮融资还由AndreessenHorowitz、DSTGlobal、GIC、InsightPartners和WCMInvestmentManagement共同领投。其他重要参与者包括现ICONIQGrowth、MGX、SandsCapital和WellingtonManagement等。

从商业模式来看,Databricks可以算是一家SaaS和PaaS公司,从PaaS层面看,Databricks的核心产品是其基于云的平台,用户可以访问大数据处理所需的所有基础设施和工具,而不必担心管理底层硬件或软件堆栈。

从SaaS层面看,Databricks还通过订阅模式提供服务,用户无需购买或维护任何硬件/软件许可证,而是订阅即可通过互联网使用该服务。

这类公司的突出特点就是后劲十足,前期的亏损主要来自于研发和获客投入,到了后期产品成熟之后研发投入会大幅降低,获客也主要依赖PLG(产品驱动增长),几乎是稳赚不赔的买卖,也难怪众多后期基金疯狂下注。

从Spark说起

在2010年,Databricks团队认识到,大数据领域的瓶颈不仅限于存储和计算能力的不足,更重要的是如何有效地处理持续变化的实时数据。当时,业界的主要产品是Hadoop,它在硬盘上处理数据。Databricks团队开发的Spark技术将数据加载到内存中,利用内存的高速读取特性,成功地消除了磁盘读取速度的限制。

然而,单纯的技术优势并不能直接转化为商业成功。因此,Databricks团队作出了一个重大决策,即将Spark技术开源。这一举措的目的有两个:首先,它允许更多用户使用并改进该技术;其次,它为公司提供了一个在开源基础上构建收费商业模式的机会。通过开源,Databricks赢得了开发者的支持,并且建立了一个全球化的社区运营平台。

之后,Databricks抓住了云计算的机会,2013年,Databricks正式成立,云计算正处于爆发式增长的前夕,然而,大多数企业对云数据处理仍持有疑虑。特别是在大数据处理领域,企业通常需投入大量资金购置硬件设备并构建基础设施,运营维护复杂且门槛极高。Databricks的云平台服务彻底消除了这一障碍。

通过将Spark与云计算相结合,Databricks提供了一种按需付费的模式,降低了做大数据的技术门槛,提供了以前做不到的灵活性和可扩展性,也大幅降低了成本,2014年,Databricks成功完成了4000万美元的A轮融资,并随后顺利进行了B轮融资。

再之后,Databricks不断完善自己的产品,从工具向解决方案型转变,2017年,Databricks公司推出了DeltaLake与MLflow两款产品。此举标志着Databricks已不仅仅是技术供应商,而是转型为一家全方位的企业服务提供商,其业务范围涵盖了数据存储、处理、分析以及机器学习等各个环节。

到了AI时代,Databricks更进一步锁定AI+数据的标签。随着人工智能与机器学习的兴起,市场对于大数据平台的需求已超越了传统的数据存储与处理范畴,企业亟需构建能够支撑智能化决策及实时分析的平台。

2020年,Databricks推出了Lakehouse架构,Lakehouse消弭了传统数据仓库与数据湖之间的界限,融合了数据湖的开放性与数据仓库的结构化功能,为业界呈现了一种创新的数据架构。该架构不仅提高了数据处理效率,还解决了大数据行业长期面临的数据一致性和实时性问题。

看起来,Databricks先后抓住了云计算、大数据和人工智能的机会,实则都是数据的需求深度严演进,数据在哪,Databricks就在哪里。恰如其Databricks的名字(数据+砖),数据就是一块砖,哪里需要哪里搬,Databricks做到了这一点,也就不难理解它的成功。

来源:TechForWhat

相关推荐