几乎不费电的 AI 图像生成器!浙大校友成果登 Nature,应用场景广泛

360影视 欧美动漫 2025-09-16 10:35 2

摘要:9月5日,《自然》(Nature)杂志刊登了一篇由加州大学洛杉矶分校(UCLA)研究团队主导的论文,第一次将图像生成这一AI中的高能耗任务,搬进了“几乎不费电”的光学系统里。

9月5日,《自然》(Nature)杂志刊登了一篇由加州大学洛杉矶分校(UCLA)研究团队主导的论文,第一次将图像生成这一AI中的高能耗任务,搬进了“几乎不费电”的光学系统里。

这项研究是中国高校校友在国际顶尖学术期刊上取得的又一突破性成果。

论文标题是《Optical generative models》。

这篇论文直指AI发展中的一个老问题:能耗瓶颈。

扩散模型、对抗网络、Transformer……这些年火起来的AI算法背后,都是庞大的算力支撑。

越大模型,越耗电,成本就越高。

这项研究试图回答一个问题:如果不靠算力,AI还能生成图像吗?

答案是:可以,靠光。

这项研究的核心,是一种由光驱动的图像生成系统。

和传统模型不同,它不靠成千上万次的GPU矩阵运算,反而另辟蹊径借助激光、光场调制器和自由空间传播,让光本身去“计算”。

具体方式如下:研究人员预先用公开数据集训练一个浅层数字编码器,它负责把高斯噪声模式转换成一个二维相位图案。

这就是图像的“光学种子”,是图像生成的起点。

这个相位图案被加载到一个空间光调制器(SLM)上,再由激光照射,经过自由空间衍射和特定设计的解码器,直接在图像传感器上生成最终图像。

整个过程不需要不断迭代,不需要大型GPU集群,主要依靠光的传播完成图像从噪声到实体的转化。

除了数字编码器消耗极少电能外,核心工作几乎不涉及电子计算。

有人会觉得,这种用光“生成图”的方式,听起来像是物理实验室里的花架子。
但论文中展示的实验结果相当具体。

研究团队在两个常用的数据集MNIST和Fashion-MNIST上分别训练了两个模型,生成了手写数字和服饰图案。

最终的图像效果通过FID评分进行量化,MNIST得分为131.08,Fashion-MNIST为180.57。

这些数字虽然不代表与最先进数字模型完全持平,但在几乎不耗电的前提下,已经具备较高的实用价值。

之后,他们又将实验扩展到了更高分辨率的图像生成,目标是梵高风格的艺术图像。

生成图像的质量与传统扩散模型相当,部分样本甚至更具风格化特征。

这项研究挑战的是AI必须依赖算力的底层逻辑。

过去十年,AI的发展几乎默认:要想生成图像,就要更强的模型、更大的参数、更高的算力。

导致AI模型越来越“重”,训练成本越来越高。

光学生成模型提出的,是另一种可能性:让AI回归物理世界,用自然规律进行信息处理。

简单的说,这是一种完全不同的技术路线。

正如作者在论文中所说:“我们的光学生成模型几乎无需算力就能合成海量图像”。

这项研究的意义在于它提供了一个新的思考方向。

在AI算力竞赛日趋激烈的当下,很容易陷入“更大更强”的路径依赖,而忽视了技术本身的多样性。

正如科研史上许多重大发现一样,真正的突破,往往是对路径本身的质疑和重构。

来源:妇产科医生小永

相关推荐