人工智能的诺奖时刻:重塑科学的未来

360影视 2025-02-03 12:18 2

摘要:2024年的诺贝尔奖将人工智能(AI)推到了科学舞台的中央。这不仅是对几位杰出科学家的认可,也是对AI在科学进步中作用的肯定。这些奖项的颁发,标志着AI在科学研究中的重要地位得到了认可,预示着AI正在重塑我们的世界,尤其是在科学探索和创新的范式上掀起了新的浪潮

2024年的诺贝尔奖将人工智能(AI)推到了科学舞台的中央。这不仅是对几位杰出科学家的认可,也是对AI在科学进步中作用的肯定。这些奖项的颁发,标志着AI在科学研究中的重要地位得到了认可,预示着AI正在重塑我们的世界,尤其是在科学探索和创新的范式上掀起了新的浪潮。

AI的崛起已然势不可挡,正在颠覆我们对世界的认知和科学研究的方式。AI for Science和Science in AI已成为前沿科学领域的新口号。展望未来,AI将在更多领域释放出无限潜力,为人类社会带来前所未有的福祉。我们正站在一个新时代的开端:拥抱AI,便是拥抱未来的无限可能。01AI与物理学的交汇:从Hopfield网络到深度学习从研究逻辑上看,物理学和人工智能的路径截然不同。物理学以探索自然界的运行规律为目标,致力于通过公式和数学模型揭示从宇宙尺度到亚原子粒子间的深层关系。它强调理解自然现象背后的根本原理,尝试通过一系列方程来解释复杂系统的行为。而人工智能则更多采用“数据驱动”的方式,往往通过端到端的学习模型从海量数据中提取特征并进行预测。这种方式有助于快速处理复杂问题,而无需明确构建与自然现象对应的物理机制。在实践中,研究者往往并非一味依赖数据,不少人工智能模型的设计仍会适度融合已有的领域知识或理论视角,以期提高模型的准确性和可解释性。随着二者的交汇,学科之间的边界已经逐渐消融,预示着更加多元化与交叉创新的未来研究格局。
1982年,John J. Hopfield提出了著名的Hopfield网络,将物理学中的自旋相互作用原理运用到神经网络中,用来模拟记忆的存储和重构[1]。这一网络的设计灵感来自统计物理中的伊辛模型(Ising model),这种模型借助相邻磁畴之间的相互作用描述整个系统的铁磁相变,模型可以通过不断反转自旋方向来实现能量最小化并到达系统的稳定状态(图1)[2]。Hopfield网络将这种机制运用到神经网络中,网络可以通过不断反转神经元的状态实现类似的能量最小化的过程,从而达成稳定储存的“记忆”。这一创新成为了后续众多能量基模型(energy-based models)的基础,也被认为是现代神经网络时代的开始[3]。 图1. (a)物理系统的Ising模型;(b)神经网络中的Hopfield网络在Hopfield网络的基础上,加拿大计算机科学家Geoffrey E. Hinton提出了玻尔兹曼机(Boltzmann machine),通过引入统计物理学中的玻尔兹曼分布概念,为神经网络带来了随机性的特征[4]。与确定性的Hopfield网络不同,玻尔兹曼机允许系统在不同能量状态之间进行随机转换,这种机制模拟了自然系统中的随机涨落现象,使网络能够突破局部最优的限制,向全局最优解探索。这一设计与物理系统追求热力学平衡的过程展现出深刻的相似性。玻尔兹曼机中随机性的引入也使得模型在更复杂的数据分布的学习中找到了解决途径。通过限制神经元之间的连接方式,玻尔兹曼机可以在表达能力的同时,降低计算复杂度,即受限玻尔兹曼机(restricted Boltzmann machine,RBM)[5]在深度学习的早期发展中,已经出现了一些重要的网络架构。1989年,LeCun等人提出的卷积神经网络(CNN)通过局部连接和权值共享的特性,为解决计算机视觉问题提供了全新思路[6]。针对长序列数据处理的需求,1997年Hochreiter和Schmidhuber提出了长短期记忆网络(LSTM),通过精妙的门控机制解决了传统循环神经网络(recurrent neural network,RNN)难以处理长期依赖的问题[7]。然而,这些架构由于深层训练的问题,性能和潜力未能完全释放。2006年,Hinton团队在受限玻尔兹曼机的基础上提出了具有里程碑意义的深度信念网络(deep belief network,DBN)[8]。他创造性地提出了一种逐层训练的方法:首先让每一层RBM分别学习输入数据的特征表示,然后通过自下而上的方式逐层堆叠。这种训练策略有效缓解了深层神经网络训练过程中的梯度消失问题,使得训练更深层的网络结构成为可能。这一突破激发了新一轮的架构创新,包括2012年同样由Hinton团队提出的深度卷积神经网络AlexNet[9],2017年Google团队提出的基于自注意力机制的Transformer等[10],推动深度学习在视觉、语音、自然语言等多个领域取得重大突破。2024年,John J. Hopfield和Geoffrey E. Hinton因为在神经网络和机器学习中的奠基性工作获得了诺贝尔物理学奖。事实上,物理学的众多研究方法和理论工具,如统计力学、量子力学等,都在AI中找到了独特的应用场景。近年来备受关注的扩散模型(diffusion model)就是另一个绝佳范例[11]。这类模型借鉴了朗之万动力学的物理过程,通过模拟分子扩散的原理来生成数据[12]。通过将数据逐步加入噪声,再通过去噪过程重建数据的方式,扩散模型在图像生成、语音合成、蛋白质设计等领域取得了令人瞩目的成果[13—15]。图2. AI撕裂回避系统控制托卡马克以及等离子体响应的示意图[16] (a)托卡马克装置执行器随时间的演化,红色波浪线表示可能的等离子体撕裂极限;(b)系统的撕裂可能性的变化;(c)等离子体压力的变化。其中蓝色和黑色曲线分别表示有无AI控制器的干预情况;(d)在参数空间内,系统会在AI控制器的辅助下沿着最优路径(黄色线)运行。有趣的是,这种跨学科的协同效应正在形成良性循环:AI不仅从物理学汲取灵感,也开始反过来推动物理学研究的突破性进展。这种双向促进的典范案例不断涌现。例如,在可控核聚变领域,2023年普林斯顿大学的研究人员利用强化学习算法成功优化了核聚变装置的等离子体控制策略[16]。通过让AI代理在模拟环境中不断尝试和学习,系统掌握了精确控制磁场构型的方法,显著提升了等离子体的稳定性和约束时间(图2)。这一突破为实现可控核聚变这一人类清洁能源的终极梦想带来了新的希望。在气象科学领域,AI同样展现了惊人的潜力,华为发布的盘古气象大模型通过整合海量气象数据,建立起更准确的天气预测系统[17]。与传统数值模拟方法相比,这种方法不仅预报速度更快而且拥有全时间段更高的准确度,为气象灾害预警提供了更可靠的依据。我们有理由相信,人工智能与物理学的协同创新将继续深化,催生出更多突破性的科技进展。我们将会见证更多AI助力下的物理学重大发现,而这些发现反过来又会促进AI技术的革新,形成更强大的创新驱动力。生命科学重新认识AI潜力:从Rosetta软件到AI驱动的创新2024年诺贝尔化学奖则授予了华盛顿大学的David Baker,以及谷歌DeepMind的Demis Hassabis和John M. Jumper,肯定了他们在计算蛋白质设计与结构预测领域的卓越贡献。人体内拥有数万种蛋白质,已知的蛋白质数量也超过数亿。然而,在浩瀚的蛋白质序列宇宙中,这不过是冰山一角。科学家们既希望优化现有的工具蛋白,也渴望探索蛋白质宇宙中的“暗物质”,即那些尚未发现的功能蛋白。这正是蛋白质设计的核心使命——通过这一技术,科学家们可以创造出全新、自然界中从未存在的蛋白质。这些蛋白质不再受限于传统进化规则,而是完全由人类设计,具备定制化功能特征。在蛋白质设计领域,华盛顿大学David Baker团队无疑站在了最前沿。过去20年中,该团队致力于开发计算驱动的蛋白质设计方法,从蛋白质结构入手,从头开始设计出形态和功能各异的蛋白质(图3)。随着时间的推移,这一领域经历了巨大的进步:从最初基于物理和统计方法的Rosetta软件[18],到如今依靠深度学习的AI方法,如ProteinMPNN[19]和RFdiffusion[20],蛋白质设计技术不断革新,但从头设计蛋白的目标始终不变。图3. David Baker 团队设计的蛋白质案例(来源于瑞典皇家科学院)如今,Baker团队设计的蛋白质已具备多种功能,包括从头设计的联合疫苗RSV/hMPV[21]、能够识别非天然底物的荧光素酶[22]以及用于药物研发的细胞因子类似物和抗体[23,24]。蛋白质设计已经完成了概念验证阶段,正逐步拓展到各类生物医学领域的实际应用中。在生命科学领域,乃至整个自然科学中,AI最具影响力的应用莫过于AlphaFold2[25]。其诞生故事看似简单:一位横跨数学、物理、化学、生物、计算机的年轻博士John Jumper,与谷歌DeepMind公司的Demis Hassabis共同领导的顶尖跨学科团队,经过三年的努力,打造出一个专门用于解决蛋白质结构预测任务的模型。在AlphaFold2之前,传统的结构预测方法主要依赖于同源建模和物理化学模拟,预测精度有限且计算成本高昂。而AlphaFold2通过创新性地整合深度学习与生物学知识,特别是利用多序列比对(MSA)中的进化信息和新型注意力机制,在2020年CASP14竞赛中实现了历史性突破——预测精度首次达到了实验方法的水平,在90%以上的目标蛋白上获得了与晶体结构相当的原子级精度[26]。这一成就被Science杂志评为2021年度十大科学突破之首,标志着困扰生物学界50年之久的蛋白质折叠问题得到了实质性解决。尽管AlphaFold2当时在蛋白质复合物结构预测以及药物分子、核酸、修饰蛋白等方面还存在局限,但三年后的AlphaFold3解决了这些问题(图4)[27]。这一突破性的成功使整个生物学界重新认识了AI的潜力,并推动了新的算法开发,如前文提到的蛋白质设计方法,也催生了生物技术公司的蓬勃发展和全新的科研模式。AlphaFold2毫无疑问改变了生物学家研究蛋白质的方式。自AlphaFold问世以来,它已被广泛应用在各式各样的生物学研究中。在蛋白质结构数据库PDB中,通过实验方法解析的蛋白质结构数量已达到20万,这也成为了AlphaFold训练数据的重要来源[28]。然而,在最近的研究中,这些巨量的结构数据已被用于发现新型工具酶,如碱基编辑器[29]、真核细胞的基因编辑蛋白Fanzor[30],以及追溯CRISPR-Cas13基因编辑系统的进化祖先[31]。同样,AlphaFold还通过其结构预测能力,在基于结构的大规模筛选中发挥关键作用,例如帮助识别人体内蛋白质相互作用的蛋白[32],以及设计更好的蛋白递送载体[33]。正如BLAST已经成为传统生物信息学工具的代表,AlphaFold正逐步成为生物学研究中的便捷且精准的AI工具,融入很多生物学领域的研究当中——曾经耗费大量时间和资金才能获得的蛋白质结构,现在“点击就送”。展望未来,Alpha‐Fold的后续版本有望解决更多复杂问题,带来更多意想不到的应用场景。图4. AlphaFold3的预测结构案例。其中,蓝色为预测蛋白结构,绿色、黄色和紫色分别为预测的抗体、配体和核酸结构,灰色为真实结构[27]。(a)人类40S小核糖体亚基与eIF1A/eIF5B复合;(b)糖基化的EXTL3二聚体;(c)抗体15B6结合Mesothelin肽;(d)LGK974与PORCN-WNT3A复合;(e)DADH与AziU3/U2复合;(f)NIH-12848类似物与PI5P4Kγ结合。03AI应得诺奖:人工智能在科学中的革命性影响

这次诺贝尔化学奖和物理学奖都给了AI,尤其是物理学奖直接颁发给了Hinton(一个计算机科学家)还是令人非常震惊的。除了对Hinton基于物理启发的人工智能算法的开发的认可,更体现了诺奖委员会对科学范式变革的预见。

物理这门学科归根结底是探索理解这个世界的方法论。传统的物理方法论,或者说占据统治地位的方法论,是搞清楚底层机理,通过不断地叠加近似来解读复杂事物。但AI反其道行之,是基于数据推断给出预测。这也能解决问题,就像诺贝尔化学奖的“蛋白质结构预测”,最开始研究这个问题的是统计物理学家,他们基于物理计算来预测蛋白结构,但深度学习在这个问题上获得了完胜传统物理计算的精度。如果科学问题本身就是如何预测一个给定序列蛋白的三维结构,那么显然我们的物理底层知识和方程是不够的,但基于大数据的AI方法是能解决这个科学问题的。基于数据的推断就是在这个科学问题上更好的方法论。这无疑是对传统物理方法论的一种冲击。这次诺奖的颁发显示了物理学的包容,我们期待看到更多基于数据推断的工具在物理学涌现,帮助我们找到更好的超导材料,帮我们找到更优的聚变控制方法等等。一直以来诺贝尔奖被视为科学领域的最高荣誉,用于表彰在物理学、化学、生理学或医学等领域作出突出贡献的个人。然而,随着人工智能技术的飞速发展,AI正在深刻改变着各个学科的研究方式和方向,成为数据推断的新范式。此次诺奖将物理学奖和化学奖同时颁发给AI领域的先驱,正是对这一趋势的最好回应。|作者:余元玺1 钟博子韬2 洪亮1,3,†参考文献

[1] Hopfield J J. Proceedings of the National Academy of Sciences,1982,79(8):2554

[2] Brush S G. Reviews of Modern Physics,1967,39(4):883

[3] LeCun Y,Chopra S,Hadsell Ret al. A Tutorial on Energy-based Learning. In:Baklr Get aledited. Predicting Structured Data.The MIT Press,2006

[4] Ackley D H,Hinton G E,Sejnowski T J. Cognitive Science,1985,9(1):147

[5] Hinton G. Momentum,2010,9(1):926

[6] LeCun Y,Bottou L,Bengio Yet al. Proceedings of the IEEE,1998,86(11):2278

[7] Hochreiter S. Neural Computation,1997,9(8):1735

[8] Hinton G E. Scholarpedia,2009,4(5):5947

[9] Krizhevsky A,Sutskever I,Hinton G E. Advances in Neural Information Processing Systems,2012,25:1097

[10] Vaswani A. Attention is all you need. In:Advances in Neural Information Processing Systems 30,2017

[11] Ho J,Jain A,Abbeel P. Advances in Neural Information Processing Systems,2020,33:6840

[12] Sohl-Dickstein J,Weiss E,Maheswaranathan Net al.ICML'15:Proceedings of 32nd the International Conference on Machine Learning,2015,37:2256

[13] Croitoru F A,Hondru V,Ionescu R Tet al. IEEE Transactions on Pattern Analysis and Machine Intelligence,2023,45(9):10850

[14] Yang D,Yu J,Wang Het al. IEEE/ACM Transactions on Audio, Speech, and Language Processing,2023,31:1720

[15] Zhou B,Zheng L,Wu Bet al. Cell Discovery,2024,10(1):95

[16] Seo J,Kim S,Jalalvand Aet al. Nature,2024,626(8000):746

[17] Bi K,Xie L,Zhang Het al. Nature,2023,619(7970):533

[18] Rohl C A,Strauss C E,Misura K Met al. Methods in Enzymology,2004,383:66

[19] Dauparas J,Anishchenko I,Bennett Net al. Science,2022,378(6615):49

[20] Watson J L,Juergens D,Bennett N Ret al. Nature,2023,620(7976):1089

[21] Boyoglu-Barnum S,Ellis D,Gillespie R Aet al. Nature,2021,592(7855):623

[22] Yeh A H-W,Norn C,Kipnis Yet al. Nature,2023,614(7949):774

[23] Silva D A,Yu S,Ulge U Yet al. Nature,2019,565(7738):186

[24] Bennett N R,Watson J L,Ragotte R Jet al. 2024,bioRxiv:2024.03.14.585103

[25] Jumper J,Evans R,Pritzel Aet al. Nature,2021,596(7873):583

[26] Callaway E. Nature,2020,588(7837):203

[27] Abramson J,Adler J,Dunger Jet al. Nature,2024,630:493

[28] Berman H M,Westbrook J,Feng Zet al. Nucleic Acids Research,2000,28(1):235

[29] Huang J,Lin Q,Fei Het al. Cell,2023,186(15):3182

[30] Saito M,Xu P,Faure Get al. Nature,2023,620(7974):660

[31] Yoon P H,Zhang Z,Loi K Jet al. Science,2024,385(6708):538

[32] Lim Y,Tamayo-Orrego L,Schmid Eet al. Science,2023,381(6664):eadi3448

[33] Kreitz J,Friedrich M J,Guru Aet al. Nature,2023,616(7956):357

(参考文献可上下滑动查看)


编辑:4925

转载内容仅代表作者观点

来源:中科院物理所

相关推荐