摘要:“我们建设的各种算力基础设施,构建的庞大算力,不能仅仅供给AI企业,更应扩展视野,服务于千行百业。”近日,由北京市科协、北京科技记协组织的“首都科技人”宣传活动中天云数据CEO、第九届吴文俊人工智能科学技术发明奖获得者雷涛如此阐述自己对人工智能所需算力的理解。
“我们建设的各种算力基础设施,构建的庞大算力,不能仅仅供给AI企业,更应扩展视野,服务于千行百业。”近日,由北京市科协、北京科技记协组织的“首都科技人”宣传活动中天云数据CEO、第九届吴文俊人工智能科学技术发明奖获得者雷涛如此阐述自己对人工智能所需算力的理解。
雷涛是中国第一代Java开发者之一,20世纪90年代参与制定了存储行业国际标准,2000年,他推动云计算落地,后又带领团队一直深耕数据智能赛道。
坚持“做原创”,开发国产自研数据库
作为IT行业知名数据专家、首批中国计算机学会(CCF)大数据专委会委员,雷涛对于数据的价值有着独到的认识。他认为,“数字经济时代,我们要给数据赋能,让数据服务大众。如何做到这一点?首先需要新一代的基础设施,而数智技术搭建的正是这样一种大平台。”
而他自己,就是一个数据基础设施的搭建者。2010 年,当分布式数据和机器学习(AI)的曙光初现时,雷涛凭借敏锐的洞察力,毅然投身到这一领域,带领团队研发国产自研数据库。
其实做一个数据库工程并不难,把应用场景打磨好,一两年时间就可以实现快速盈利,但雷涛果断选择了“做原创”。
“做原创产品,才是下一代产品的核心命脉,工程只是在上一代产品上做延续性创新,无法支撑基础设施。”雷涛把几乎全部的资金都用在了研发上,可最初推向市场的时候,却经常被客户质疑。
但这所有的难,并没有让雷涛打退堂鼓,他最终开发出一套基于Go语言纯自研的HTAP数据库产品Hubble。这套数据库通过中国软件测评中心的源代码测试,系统自主研发率达到99.62%,完全符合国家信创战略,解决了基础设施“卡脖子”的难题。
有了自研的数据库,就有了未来面对国际巨头能够立足的底气与根本。雷涛说,现在机器传感物联网的数据时代已经到来,大量的数据通过设备或者产业服务产生出来,“而在我们搭建的基础设施之下,能诞生更多类似ChatGPT的智能应用。我们只要把数字基建搭好,把平台不断完善,数据就能真正服务每一个人。”
近年来,人工智能的快速发展深刻地改变着各个行业的格局。2019年,资本市场剧烈震荡,伞形信托引发的配资乱象让传统规则监管束手无策。雷涛带领的天云数据团队另辟蹊径,将600万正常账户数据与2000多个问题账户“喂”给深度学习模型,让人工智能自主发现人类难以察觉的异常模式。
“就像训练警犬识别新型毒品,我们不需要告诉它化学成分,只需让它记住气味。”雷涛说,这套系统将监管效率提升数个量级,成为“证监会版”监管沙盒项目之一。
他拿出手机展示团队研发的工业检测系统,AI通过3D点云数据,能像资深技工般“摸”出精密零件的微米级瑕疵。“语言大模型是二维革命,视觉大模型是2.5维突破,空间计算将开启三维智能时代。”他说。
在雷涛和团队的努力之下,现在的天云数据,能同时提供国产HTAP数据库Hubble与AI平台型基础设施,并被评为国家级高新技术企业,首批中关村前沿科技企业,以及Forrester人工智能认知层第一象限公司。
算力基础设施应服务于千行百业
人工智能有三大核心要素,即所谓算力、算法、数据,其中算力可以说是其中的基础。什么是算力?通俗地说,就是计算能力,代表数据中心的服务器对数据进行处理后实现结果输出的一种能力。
人们常说,人工智能的尽头是算力,而算力的尽头是电力。数据显示,2023年我国算力中心能耗总量为1500亿千瓦时,同比增长15.4%,约占全社会用电量的1.6%。可见算力增长也会大幅增加对电力的消耗。雷涛表示,现在已有越来越多的国内外AI巨头积极与能源电力企业合作,有的甚至直接生产电力,以满足算力快速增长对于电力的庞大需求。
在我国,很多地方正大力建设算力基础设施,投资不菲。雷涛认为,大家顺应AI时代潮流进行这些建设本来是件好事,但也要考虑实际情况,因地制宜,不要搞重复建设,更不能有投机的想法。“规划建设过程中要看清AI的发展趋势,紧跟技术前沿,不要再做一些已经明显落伍的东西,所谓一步落后,步步落后!”他说。
雷涛还表示,建好的算力基础设施要如何发挥作用很关键,不能仅仅满足AI企业需要,更要关注MaSS市场(大众市场),要让算力像互联网或者水、空气一样,成为一种基础的东西,服务于千行百业。
“现在我们很多的算力中心应用场景、客户群体等都较为单一,远不能发挥其全部作用。”雷涛说,“现在已是AI+的时代,AI本身正在与千行百业相结合,已渐渐成为一种基础性工具,国家建设的算力基础设施,也应该把重点放在服务各行各业上。”
未来AI将自己生产训练所需的数据
春节期间,国产大模型DeepSeek-R1横空出世,证明了用更低的成本、更少的算力需求,就可以实现世界一流的模型性能水平。据测算,DeepSeek-R1模型仅花费约600万美元就完成了训练,约为美国和欧盟同类大语言模型成本的1/50.在某些方面,该模型比OpenAI的o1模型要好得多。更重要的是,R1的运营成本仅为OpenAI通常对计算密集型输出收取的费用的3%。
雷涛认为,DeepSeek实现了大模型的祛魅,开启了中美后训练时代的大门,曾经被广泛依赖的技术大模型预训练模式,如今已不再是唯一的 “金科玉律”。相比算力过剩的问题,我们更应该关注的是算力和效率都满足的情况下有没有可以用来训练的优质数据。
实际上,数据是大模型的核心竞争力,高质量的数据资源会成为核心生产力,AI模型生产的内容高度依赖源头数据。有研究机构估计,机器学习可能会在2026年前耗尽所有“高质量语言数据”。
雷涛表示,今天的数据并不能满足明天的AI使用,明天的AI要自己生产数据资源。数据质量的高低并非由主观认知简单判定,而是取决于所采用的AI算法。如今已有大量数据由AI生成,但这并不意味着这些数据就是 “假数据”。
“所谓高质量与低质量数据,其评价标准与方式,归根结底在于AI算法。” 雷涛进一步阐释,“这就是当下热议的数据飞轮概念。AI模型使用的数据由其自身生成,数据飞轮正是构建模型持续迭代生长的关键方法。”
很多人说AI自我生成的合成数据是虚拟的、空数据或者说是造出来的数据。不过雷涛认为,合成数据是已知的数据通过确定的逻辑生产出来的数据,这些结果数据服务于真实的生产过程。
他还举了个例子,“百模大战”过后,为什么英伟达发布的大模型还可以挤到第一阵营?英伟达模型训练使用了98%的合成数据。无独有偶,特斯拉也是用合成数据获得具身机器人的智能。
合成数据可降低对真实数据的依赖
雷涛认为,硬件的增长遵循摩尔定律,而数据的增长则呈现指数型态势。我们如今所处的时代,已然是机器生产数据的时代,合成数据则是未来算力的主要解决方案。
合成数据究竟又是如何生成的呢?雷涛打了个比方,往一瓶水中滴一滴墨水,墨水会从相对简单的状态逐渐扩散,变得复杂、分散。通过逆扩散算法识别墨水扩散规律,就能模拟出不同的墨水扩散场景。合成数据也是利用类似原理,抓住核心规律,从简单数据出发,模拟数据的复杂变化过程,创造出丰富多样的数据。
“人类的抽象逻辑留给我们的数据资产有限,都是信息化进程中沉淀下来的结构化概要信息。而要把这些概要信息转变为能用于理解和处理复杂世界中复杂系统的内容,就需要大量合成数据。”他说。
另外,在某些特定领域或场景下,获取真实数据存在困难。以自动驾驶领域为例,其需要百万级别的路况数据,涵盖模拟极端灾难天气、极端恶性交通事故(如波音747在高速公路上迎面迫降)、复杂路况(如路面破损、立交桥断桥)等情况的数据。这些数据难以从现实世界获取,而合成数据可按需生成,填补数据缺口,降低对有限真实数据的依赖。
后训练推动AI从“发动机时代”走向“造车时代”
雷涛表示,当前,大模型的预训练时代已经结束,后训练时代正式开启。在后训练时代,大模型构建起从数据生成到模型强化的正向循环机制至关重要。就像移动互联网时代搜推系统的“数据飞轮”效应——通过应用数据优化算法,算法又反哺应用,人工智能大模型也应形成“数据飞轮”,借助AI生产训练数据实现自我训练。
他还认为,后训练的核心在于从通用模型到领域知识、再到个体经验的深化。谷歌提出的L0-L6层级标准为后训练提供了框架,从基础模型的泛泛问答到高级的强化学习和智能体应用,后训练将推动AI从“发动机时代”走向“造车时代”。
“国内AI市场已经全面进入后训练时代,企业需要从通用模型出发,结合传统机器学习和机理方法,最终实现个体化的应用。”他说。
来源:科学加