摘要:2025年9月,一项由微软剑桥研究院主导的研究登上《Nature》杂志,标题并不起眼,却引发了科技圈的广泛关注。
2025年9月,一项由微软剑桥研究院主导的研究登上《Nature》杂志,标题并不起眼,却引发了科技圈的广泛关注。
不是因为它用了什么先进的GPU,也不是因为它提出了全新的AI模型,而是因为它用“光”——重新定义了计算方式。
这台被称为“AOC”的模拟光学计算机,在实验中展现出远超传统GPU的能效表现。微软甚至估算其成熟版本的能效可达500 TOPS/W,是当前最先进GPU的100倍。
光学计算的概念很早就被提出,理论上,它用光来进行计算,速度快、能耗低。
但几十年来,它一直没能从实验室走出来。主要原因在于器件复杂、精度不高、难以控制。
微软的这次突破,核心在于他们用现成的元器件——手机摄像头、Micro LED、光学透镜——搭建起了一个能跑实际任务的光学计算原型。
研究团队花了四年时间,在英国剑桥的实验室里把这个系统拼了出来。他们的设计思路,是把光学矩阵运算和模拟电子电路结合,构建一个循环回路。
每20纳秒,系统完成一次迭代,逐步收敛到“固定点”——这个固定点,就是计算任务的结果。
很多人会担心,这种实验室设备是不是只能做“样板演示”?微软团队直接上了两个现实场景:金融和医疗。
在金融领域,微软联合巴克莱银行,把每天清算系统面对的“货银对付”问题搬到了AOC上。实验设定了46笔交易、37个参与方,转化为41个变量的优化问题。
通过AOC计算,仅用了7次迭代就得出最优解。这种问题的本质是组合优化,传统算法需要大量资源,而AOC在这个任务中表现出了不小的潜力。
医疗上,研究团队选择了MRI图像重建任务。他们先用32×32的Shepp–Logan脑部图像测试,成功复原原始图像。
随后,又用数字孪生技术(AOC-DT)模拟了一个包含20万个变量的真实脑部MRI数据集,完成了完整重建。
这两个案例说明,AOC不仅能处理数学问题,也能落地到现实世界。
微软的研究不只是停在传统优化任务上。
研究员Jannes Gladrow在一次内部午餐会上提出一个设想:AOC的“固定点搜索”机制,和AI中的平衡模型(如DEQ、现代Hopfield网络)天然契合。
这类模型在GPU上训练成本高,推理过程迭代复杂,AOC却可以通过自身回路特性高效运行。
实验中,团队把MNIST和Fashion-MNIST分类任务映射到AOC,结果几乎与数字孪生系统一致,准确率接近99%。他们还测试了高斯曲线和正弦曲线的拟合,AOC同样完成得很稳定,表现接近仿真结果。
这说明,AOC不仅能跑“玩具问题”,而且具备进一步扩展的潜力。
目前AOC的原型级别还只能处理小规模权重。但微软公布了一条明确的扩展路线图:未来每个模块可以支持400万个权重,几十到上千个模块组合后,可达到0.1亿至20亿权重的规模。
这并非空谈。
AOC跳过了传统芯片中最耗能的数模转换环节,计算过程天然抗噪,能耗极低。
研究人员估算,未来成熟版本的AOC能耗可达每次操作2飞焦耳(fJ),而NVIDIA H100大约在4500 fJ。这相当于能效提升两个数量级。
如果现有GPU是AI时代的“油老虎”,AOC或许能成为“新能源车”。
微软研究主管Francesca Parmigiani领导这个项目时曾说,AOC不是一台通用计算机,而是一种能在关键场景中跑出新可能的光学加速器。
团队中既有构建硬件的Jiaqi Chu,也有推动AI任务结合的Jannes Gladrow,还有在医疗实验中推动应用的Michael Hansen。正是这种跨学科融合,让AOC从一个“奇怪装置”成长为《Nature》认可的研究成果。
光学计算不是要取代GPU,而是在计算架构的多样性中,提供一种新的、低能耗、高效率的选项。
在AI不断膨胀的未来,算力不是越多越好,而是能不能以更低的代价完成更多的任务。微软这次用AOC做出的尝试,或许就是朝这个方向走出的第一步。
来源:小眼知心