可逆计算:一场技术豪赌,能效比现有芯片高4000倍,赌赢即得未来

360影视 国产动漫 2025-03-20 13:40 3

摘要:AI发展势不可挡,能源消耗却是个死结。数据中心正在吞噬全球电力。2026年,全球数据中心预计消耗96GW电力,相当于全球第六大耗电国。一个LLM查询消耗2.9Wh,一次Google查询是0.3Wh,能耗差距10倍。AI Overview达到10Wh,DeepR

AI发展势不可挡,能源消耗却是个死结。数据中心正在吞噬全球电力。2026年,全球数据中心预计消耗96GW电力,相当于全球第六大耗电国。一个LLM查询消耗2.9Wh,一次Google查询是0.3Wh,能耗差距10倍。AI Overview达到10Wh,DeepResearch更是指数级增加。更可怕的是,LRM(大推理模型)正在崛起,比LLM多生成20倍Token,推测能耗是LLM的15倍,约45Wh。

能耗危机不仅仅是数据。是趋势,是铁律,是数学决定的结果。

摩尔定律在失速。半导体性能翻倍的时间,从18个月拉长到30个月。Koomey定律也在失速,单位能耗计算能力的翻倍时间,从1.5年变成2.6年。而AI需求的增长速度?远超这个数值。供需错配,只会越来越严重。

怎么办?继续建电厂?没那么简单。AI基础设施投入暴增。OpenAI、Oracle、软银计划投资5000亿美元打造新数据中心。但即使全世界所有能用的核电站、风电站、太阳能电池板全部开足马力,也远远跟不上AI能耗的扩张速度。能源瓶颈不解决,AI增长到一定程度就会失速。

这时,一个疯狂但现实的方案浮出水面:可逆计算。

物理学家早就提出过,计算并不一定要消耗能源。关键是如何避免信息擦除。每次计算,计算机需要清除之前的状态。这一“清除”就是能量消耗的根源,因为它增加了系统的熵,导致热能散失。计算机的本质,是逻辑门(如XOR),但问题是绝大多数逻辑门是不可逆的,意味着信息丢失——熵增加,热量溢散。

然而,如果计算是可逆的,就可以绕开这个死结。

熵不会凭空减少,但可以转移。可逆计算的核心,就是把能量“回收”,避免浪费。计算的输入信息被保留,结果可以用于逆向还原输入,不需要“擦除”数据。熵没有增长,自然就没有额外的热量产生。按照理论计算,可逆计算的能效比现有芯片高4000倍

如果真的做到,AI能耗问题可以一劳永逸地解决。

但从理论到现实,有道不可逾越的鸿沟。可逆计算不是新概念,但一直没有商用化。 计算机科学家60年前就在研究这个问题,物理学家也早就提出热力学理论支持。但问题在于,实现可逆计算需要极其精细的能量管理,硬件难度极高。传统半导体设计完全是面向不可逆计算的,重建整个计算架构,意味着要颠覆整个芯片产业链。

计算的本质是逻辑操作,而逻辑门绝大多数是不可逆的。XOR门就是一个典型例子,输入A、B,输出C。只看C,无法还原A和B。不可逆意味着必须擦除之前的计算结果,而擦除意味着熵增加,熵增加就必然带来热量损失。这就是计算机发热的根源。

但可逆计算提出了一个颠覆性的思路:如果我们不擦除信息,而是存储并用其计算逆向过程呢?

理论上可行。实验上也部分实现。但问题是,可逆计算的硬件实现极其复杂。现代计算机的逻辑门、电路设计、芯片制造流程,全部基于不可逆计算。让所有计算电路都变成可逆的,等于推倒重来。更何况,即使理论上减少了能耗,如何在物理层面做到真正的零能量损耗,仍然是一个巨大的挑战。

产业界已经开始下注了

Vaire正在尝试这件事。2025年,他们的第一款可逆计算芯片即将试产,目标是AI推理优化。2027年,他们的目标是推出一款比传统计算机更节能100倍的可逆计算芯片。

听起来像天方夜谭?但已经有公司愿意砸钱去赌这个未来。赌什么?赌的是AI未来5年能耗问题会成为生死劫。赌的是如果没有可逆计算,AI算力会因为能耗问题进入瓶颈。赌的是只要能成功,可逆计算的市场空间将是无穷的。

能源危机不是AI的附属品,而是AI的决定性因素。如果能解决这个问题,AI的增长才可能真正持续。如果解决不了,AI产业就会撞上一个硬天花板。

目前全球前十大科技公司,没有一家不在关注AI能耗问题。微软、谷歌、英伟达、特斯拉、Meta,全都在布局AI基础设施,但核心难题就是:如何让算力增长速度不被能源供应卡死?

所以Vaire不是一个孤立的赌局,而是整个行业焦虑的缩影。

AI不是一个单纯的技术问题,它是能源、计算、商业、物理学的交汇点。人类社会已经进入了AI时代,AI大模型正在改变一切,但我们不得不面对一个赤裸裸的事实:AI并不是免费的。它需要电力,它需要服务器,它需要数据中心,它需要源源不断的能源。

而人类的能源系统,已经被逼到了极限。可逆计算不是一个好玩的科学概念,而是一场技术豪赌。赌注是整个AI时代的未来。

来源:老胡科学

相关推荐