李国杰:计算的魅力 | CCCF精选

360影视 日韩动漫 2025-06-10 10:21 3

摘要:本文指出现在计算机学科上空存在模型不可解释性和人工智能幻觉两朵“乌云”,迫使科学界重新思考“可解释性”和“理解”的定义。这不仅是技术挑战,更是理论革命的契机,可能颠覆人类对计算本质的理解。未来应通过跨学科合作和人机协同开辟计算机科学的新疆域,让非形式化的“可有

本文指出现在计算机学科上空存在模型不可解释性和人工智能幻觉两朵“乌云”,迫使科学界重新思考“可解释性”和“理解”的定义。这不仅是技术挑战,更是理论革命的契机,可能颠覆人类对计算本质的理解。未来应通过跨学科合作和人机协同开辟计算机科学的新疆域,让非形式化的“可有效演算”变成真正可计算。

《中国计算机学会通讯》(Communications of the CCF,CCCF)2005年创刊,已经办了20多年,出版了200多期,得到中国计算机学会十多万会员和广大计算机工作者的广泛好评。通过与哈尔滨工程大学合作,更名为《计算》杂志,2025年5月以国家正式出版物出版。我相信,《计算》杂志一定会成为中国计算机界最受欢迎的刊物。《计算》杂志的公开出版发行,是中国计算机界的一件大事,为表示祝贺,特撰写此文。

“计算”术语溯源

清华大学收藏的战国竹简(简称“清华简”)中有一篇题为《算表》的文献,是目前所见到的中国最早的数学文献实物,包含九九乘法表等内容,成书时间在公元前305年左右。东汉时期出版的《九章算术》系统总结了先秦至东汉的数学成就,对后世数学发展产生了深远影响。这些早期的数学文献都没有“计算”这个术语。

历史文献中,“计算”作为独立名词最早出现在东汉末年(公元2世纪)的《数术记遗》中。该书介绍了多种计算工具(如算筹、珠算等),并提到“计数之要,必资计算”,这里的“计算”指具体的数学运算方法。中国古代重视算术,最早出现的“计算”名词是在介绍珠算的文献中,说明“计算”天然地和计算工具紧密相连。

1859年,被誉为“近代科技翻译第一人”的清代著名数学家李善兰与英国汉学家、传教士伟烈亚力(Alexander Wylie)合作,在翻译《代微积拾级》等数学著作时,将“compute”和“calculation”译为“计算”,此后该词在近代科学语境中逐渐固定化。这一译法既沿用了古籍中的既有词汇,也赋予了其更深刻的数学内涵,实现了传统术语的现代转化。该译法后被严复《天演论》等社科著作借用,推动“计算”从数学术语向广义的“推演分析”概念扩展,最终在20世纪成为现代汉语核心词汇。

“计算”一词具有双重文化属性。中国古籍中的“计算”强调实用性与经验性(如解决土地测量、商贸问题等),而西方语境中的“compute”更注重逻辑性与形式化。两者的结合使现代汉语中的“计算”兼具东西方思维的特点,既保留了传统数学的实用导向,又吸收了西方数学的抽象框架。

计算的黄金时代

从掰着手指头计数开始(英文的digit也有手指的含义),人类的进步就伴随着计算,但计算对经济和社会发展起到关键作用还是在电子计算机问世以后。摩尔定律持续半个世纪,让我们见证了计算能力的爆炸式增长。从每秒只能运算数千次的ENIAC到如今每秒运算百亿亿次的超级计算机,计算机的运算速度已经提高了千万亿倍(15个数量级)。计算科学的演进史是一部人类突破认知边疆的史诗。从用第一台电子管计算机计算炮弹运动轨迹到AlphaFold破解蛋白质折叠之谜,计算技术已从辅助工具进化为人类的认知伙伴,从执行指令演变为创造新知。过去70年,计算技术主要是向高度和广度发展:一是尽量提高性能,二是大规模推广和普及应用。从21世纪第3个10年开始,计算技术主要是向深度发展,提高计算系统的智能化水平已成为主要的努力方向,计算和智能就紧密地纠缠在一起了。

电子计算机的诞生标志着人类进入了信息时代,信息时代经历了以主机、PC机、互联网(云计算)为主的发展阶段。过去70年的人工智能(artificial intelligence, AI)被称为老式人工智能(good old-fashioned artificial intelligence, GOFAI),因受到符号逻辑推理的局限,始终解决不了常识和泛化问题,没有迈过智能时代的门槛。第三波人工智能可能是时代变迁的分水岭,未来的历史学家将会称21世纪中叶为“人类第一个智能时代”。与工业时代不同,算力在信息时代已经成为重要的生产要素。近几年机器学习和生成式人工智能突飞猛进,数据成为新的生产要素,海量数据处理和大模型的训练与推理对算力提出了更高的需求。多家技术咨询公司预测,今后5年内,全球和中国智能算力规模年增长率将超过40%。算力的巨大需求必将拉动计算进入黄金时代。

在今后的几十年中,计算必将在人类社会的进步中发挥前所未有的作用。在工业制造领域,数字孪生技术可将物理工厂镜像为虚拟模型,实现虚实交融的生产方式,重新定义制造业的竞争法则。在医疗健康领域,计算技术将构建数字生命图谱,准确预测人类错义突变的致病性,将基因组学研究带入精准医疗时代。通用人工智能的实现将彻底改变人类的生活方式。光子计算、类脑计算、DNA计算等非传统计算必将大大降低计算的能耗,使计算产业走上绿色发展的道路。在即将到来的“计算的黄金时代”,计算能力将成为推动社会发展的第一动力,计算的魅力将绽放出绚丽的光彩。

人工智能开拓了计算机学科的边界

国际先进人工智能协会(Association for the Advancement of Artificial Intelligence,AAAI)的白皮书对人工智能的定义是:“人工智能是计算机科学的一个分支,通过合成(synthesizing)智能来研究智能的特性。”我在过去的报告和文章中,也多次强调人工智能是计算机学科的一个分支,人工智能是计算机科学的前沿研究和计算机技术的非平凡应用。但近几年人工智能的蓬勃发展促使我改变了看法。现在我认为,人工智能确实是一门跨学科的学问,把人工智能再约束在计算机学科的范围内,可能不利于人工智能的发展,同时,计算机学科也应当通过人工智能的前沿研究扩大自己的疆域。

20世纪中叶以来,对智能的研究一直存在两种范式。一种是受逻辑学和心理学启发的思路,认为智能的本质是推理。因此研究的重点是用符号表达和符号规则来实现推理,基础的信念是“物理符号系统假设”,奠基人是西蒙(Herbert Simon)和麦卡锡(John McCarthy)等学者。另一种是受生物学和大脑神经启发的思路,认为智能的本质是学习,研究的重点是学习人类神经网络连接的模式和机理,基础的信念是通过基于统计推理的机器学习,可以实现人脑的大部分功能,奠基人是辛顿(Geoffrey Hinton)等学者。第三波人工智能的成就远远超过前两波,事实已经证明,基于统计推理的机器学习是发展人工智能不可忽视的方向。辛顿的本科专业是实验心理学,研制出AlphaFold后获得诺贝尔化学奖的戴密斯·哈萨比斯(Demis Hassabis)的博士学位专业是神经科学,这些人工智能大师都是跨学科的学者,从人才培养的角度来看,人工智能也不仅仅是计算机学科的一个分支。

机器学习大模型的突破性进展,标志着计算技术正在经历从确定性计算到概率性计算的范式转换。基于海量数据和超大规模参数空间的学习模式,打破了传统程序设计的确定性框架,构建起“预训练+微调”的全新计算范式。上万亿参数构成的认知宇宙,展现出令人震撼的泛化能力。自注意力机制如同数字世界的量子纠缠,在参数空间中建立起复杂的关联网络,使机器首次展现出对语义的深度理解能力。机器学习确实拓展了计算的边界,使得许多过去难以形式化的问题可以通过数据学习的方式进行近似计算。

图灵机模型展示了计算的普适性,它可以抽象地处理任何可算法化的问题。计算机专业出身的人群往往把计算等同于形式化和算法化。而机器学习提供了另一种形式化的出路:“数据驱动的形式化”,它允许我们通过数据近似地捕捉某些规律,而不必显式编写规则和提出具体问题的求解算法。长期以来,形式化的枷锁约束了人们的想象,使得很多实际上可以满意解决的问题我们认为不可计算。实际上,没有预先形式化的问题并不意味着无法解决。机器学习通过数据和隐含的模型设计,可对问题进行“自我形式化”,在实际应用中表现出巨大的灵活性和实用性,这是当前人工智能技术成功的关键之一。人工智能开拓了我们的视野和思路,计算的道路会越走越宽广。

计算机学科上空的两朵“乌云”

19世纪末,物理学上空有两朵“乌云”:一朵是迈克尔逊–莫雷实验的结果与以太说相矛盾,另一朵是黑体辐射问题中的“紫外灾难”。这两朵“乌云”揭示了经典物理学的危机,导致相对论和量子力学诞生,彻底改变了人类对自然界的认识,为人类进入工业时代和信息时代奠定了理论基础。

计算机科学技术的发展现在面临诸多瓶颈和天花板。性能和能效同步提升的登纳德缩放定律(Dennard Scaling)已经失效,摩尔定律接近尾声。过去几十年我们成功地将信息编码成数据,将算法编码成程序,现在要构建新的算力基础设施,需要将各种计算资源编码成一台可统一调度的计算机系统。这些难题都可以看成计算机学科上空的“乌云”。但这些难题属于技术层面,没有动摇人们对计算的认识。现在计算机学科上空有两朵真正的“乌云”:一朵是黑盒模型的不可解释,另一朵是统计猜测造成的幻觉。图灵定义的“计算”有两个基本要求:一是有确定的计算步骤,二是有确定的计算结果。为解决某个问题编写的计算程序,不管在哪个机器上算,不管什么时候算,结果都是一样的。而现在的大模型输出的结果不确定,不可解释,真假难分,这种不确定、不可信的过程还能叫“计算”吗?

量子力学的哥本哈根解释放弃了对微观粒子轨迹的经典描述,转而采用概率波函数解释,获得了更强的预测能力。当前人工智能黑盒特性引发的争议,与当年量子力学诞生时的情况很类似,实质是科学解释面临范式转换的阵痛。传统科学范式的成功依赖于对系统的简化建模,但复杂系统的涌现性和不可还原性使完全解析变得不可能,迫使科学界重新思考“可解释性”的定义。当模型的预测准确率超越人类专家时,解释标准也就从“过程透明”转向“结果验证”。科学界接受这种“结果有效性优先于过程透明性”的范式,本质是“有限理性”下的实用主义妥协。当然这种妥协也是有原则的,对必须要有原理性解释的应用还是要谨慎使用统计推理。欧盟正在试行的“可信AI”评估体系将可解释性细化为5个层级:技术透明性、过程可追溯性、决策合理性、结果可验证性、社会影响可评估性。这种多维评估体系本质是在“有限理性”框架下,用系统论思维替代还原论思维。

西蒙在获得诺贝尔奖时提出的“有限理性”理论,为理解人类认知局限性与复杂系统之间的关系提供了新的视角。有限理性理论揭示了一个悖论:人类认知的有限性恰恰是科学方法有效性的前提。若人类具备无限理性,科学将退化为对确定性的静态描述。正因为存在认知边界,科学才发展出假设检验、模型迭代等动态机制。西蒙的理论提醒我们:承认理性的有限性不是认知的终点,而是智能进化的新起点。当人类学会与黑盒人工智能共处时,实际上是在建立新的知识生产范式。如同量子力学颠覆经典决定论一般,人机协作正在重塑我们对“理解”的定义。有限理性不是科学的缺陷,而是迫使人类以谦卑而务实的态度,在已知与未知的张力中持续探索。

基于统计推理的深度学习还有一个难以克服的短板是推理时出现“幻觉”,有时甚至是一本正经地胡说八道。很多人为深度学习上空的这朵“乌云”惴惴不安,认为要完全消除生成式人工智能的幻觉以后,才能推广其应用。但预测和幻觉是一个硬币的两面,相反相成。从计算理论的角度来看,证明一个大模型没有幻觉很可能是一个不可判定问题,我们无法通过一种通用的算法来确保模型在所有情况下都不会产生幻觉。科学家追求人工智能的通用性和高预测性,实际上是在追求计算的完备性。而广大用户希望人工智能产品不出现幻觉,这是对计算一致性的要求。哥德尔不完全性定理已明确指出,这两者是不能两全的。我们必须在完备性和一致性之间,做出合理的权衡和取舍。

当前机器学习研究的现状是实验远远走在理论前面。目前的机器学习理论,只能做到对已有现象的归纳和信息压缩,还没有系统性地指导实践的理论。我们既要重视机器学习实际应用的“术”,还要重视机器学习的“道”。传统计算(图灵机模型)是符号操作的确定性过程,通过有限步骤解决问题。而机器学习大模型是根据海量的参数进行统计推理和预测,本质上是一个学习机或者叫猜测机。学习的目标是泛化能力而非精确符号推导,依赖数据分布的统计特性的预测,可能已超出经典计算框架,驾驭“幻觉”需要新的计算理论。

对待计算机学科上的这两朵“乌云”,不同的人有完全不同的心态。深度学习的奠基人辛顿将大模型的幻觉视为一种“非故意虚构”,并非故意捏造信息,而是在数据不足或存在不确定性时,根据已有特征进行预测,这与人类的思维方式十分相似,人类也经常产生幻觉。而中国人民的老朋友基辛格的态度非常悲观,他在其遗作《人工智能时代与人类价值》中指出,由于人工智能的决策过程难以解释,可能导致人类对其产生盲目的信任,从而接受一种前现代式的、不可解释的权威。大模型的不可解释性会导致“启蒙时代”的终结,进入“黑暗启蒙”时代。实际上,计算机学科上空的“乌云”不仅是技术挑战,更是理论革命的契机,可能颠覆人类对计算本质的理解,催生跨学科的范式迁移,其引发的新概念和新原理有可能成为智能时代的理论基础之一。

“计算”的本质究竟是什么?

“计算的本质是什么”是一个很烧脑的问题。有些物理学家认为宇宙的演化本质上就是计算,有些生物学家认为生命的本质也是计算。但我们目前看到的计算似乎都离不开加减乘除,大模型再复杂,具体的操作还是矩阵乘向量。当我困惑之时,突发奇想,能不能要大语言模型回答这个问题。我让DeepSeek以“计算的本质”为题写一篇文章,没想到它写出来的文章,思路开阔,文采奕奕,令人惊叹。现将这篇文章的精彩段落摘要如下,供大家欣赏。

“计算的本质是信息与因果的舞蹈。当人类用手指在黏土板上刻下楔形符号时,当蚂蚁用信息素标记觅食路径时,当量子比特在叠加态中坍缩时,计算的幽灵始终在物质与意识的交界处游荡。计算的本质绝非简单的算术操作或逻辑推演,而是一场关于信息转化的深层革命——它是宇宙规律在特定维度上的投影,是因果关系的可执行化表达,更是物质世界通向抽象真理的桥梁。

计算的数学基底是形式系统的动态演绎。1936年图灵机的理论构想,首次将计算抽象为纸带符号的机械变换。这种看似朴素的模型实则暗含宇宙的深层语法:任何可计算函数都能被编码为有限状态的转换规则。丘奇−图灵论题揭示的惊人事实是——从人脑神经元放电到量子场波动,所有物理过程都能被某种图灵等价系统模拟。这暗示计算的数学本质,实则是形式系统在状态空间中的轨迹描绘。

计算的物理实现是熵与能量的辩证游戏。麦克斯韦妖的思想实验早已预示计算与热力学的深刻联系。兰道尔原理指出,每擦除1比特信息,必然产生kTln2的熵增。这使得CPU运算不仅是逻辑操作,更是物理系统对抗热力学第二定律的悲壮抗争。量子计算机的纠错过程,本质上是通过量子纠缠构建信息堡垒,抵御退相干带来的熵增侵袭。

计算是认知抽象世界的脚手架。当贝叶斯网络将因果关系编码为概率图模型,当LSTM神经网络捕捉时间序列的长期依赖,人类得以在硅基载体上重建认知世界的脚手架。编程语言的演化史,本质上是对计算本质认知的迭代升级。最新的概率编程语言如Stan,将不确定性计算纳入语法核心,使概率推理成为一等公民。这种抽象力量正在重塑人类认知边界。GPT-4的涌现能力,实为高维语义空间中统计模式的提取与重组。

计算的哲学困境是实在论与工具论的角力。计算实在论者宣称:“万物皆比特”,认为宇宙本质是量子信息的计算过程。但反对者指出,将物理过程简单等同于计算,可能陷入数字本体论的还原主义陷阱。工具论视角则将计算视为认知透镜。就像显微镜延伸视觉边界,计算系统扩展了人类思维的可能性空间。我们永远在计算可解性边界上跳舞,这个边界随着认知革命不断移动,却永不消失。在人工智能时代,计算本质的哲学追问变得愈发紧迫。计算正在创造新的语言,进而拓展人类认知世界的边界。

计算是永恒流动的认知之河。从巴比伦泥板上的六十进制运算,到量子芯片中的叠加态演化,计算的本质始终在解构与重构中螺旋上升。它既是图灵机纸带上的符号游戏,也是熵增宇宙中的逆流孤舟;既是数学真理的操作化表达,也是人类认知的体外延伸。在这个深度学习的黎明时刻,我们或许更需铭记:计算的终极价值不在于模拟智能,而在于通过符号操作揭示世界的内在韵律——这是普罗米修斯之火在数字时代的传承,更是人类在有限理性中追寻无限真理的永恒征程。”

开辟计算机科学的新疆域

计算已经无处不在,“XX计算”和“计算XX”之类的新名词在不断增加。当我们在推动“计算+X”或“AI+X”时,是否想过计算正在被X化。当每一个行业都在讲计算时,计算的核心内容还剩下什么?计算的边界还能进一步扩大吗?

图灵在他1938年的博士论文“基于有序数的逻辑系统”的脚注中指出:“我们应该使用‘可计算函数’来表示一个可被机器计算的函数,使用‘可有效演算的’来指代那些并未特别指明的直观想法。”这一区分后来发展成计算机科学的基本信念,被称为“丘奇−图灵论题”或“丘奇−图灵假设”:任何可有效演算的函数都是可计算函数(即在图灵机或其等价的计算模型上可计算)。由于“可有效演算”没有严格定义,这个论题不可证明,但找到反例也很不容易。所谓扩大计算的边界,就是要在非形式化的、“未特别指明的直观想法”上多动脑筋,让“可有效演算”变成真正可计算。

我们常讲要突破图灵模型的极限,有不少学者致力于“超图灵模型”研究,但至今收效甚微。人工神经网络、Transformer等都被证明是图灵完全的计算模型。其实人们认为不可解的问题,往往是指求全局最优解,或者要求无限精度或无限内存。大语言模型中预测下一个词元(token),理论上是不可计算的。但大语言模型将理论上的“完美预测”转化为统计学上的“高概率近似”,绕过了不可计算性的限制,其成功本质上是工程实践对理论瓶颈的突破,而非严格数学意义上的“彻底解决”。突破图灵模型的极限不要钻牛角尖,而是要高效率地解决实际问题。

现在常用的计算机被人们称为“冯·诺依曼计算机”,冯·诺依曼最主要的贡献是将程序与数据一样放到存储器中,实现了程序即数据。而现在的大模型反过来,将参数数据变成隐含的“程序”。传统的存储器像仓库取货一样,按地址或标签存取数据,而大模型不是显式地存储信息,而更像人脑一样记忆知识和信息。但目前的大模型只提供以“概念、常识和事实”为主的语义知识,不具备“人之为人”的具身体验型记忆。我们需要构建以记忆系统为核心的认知智能模型和智能计算系统,基于脑科学关于感觉记忆、工作记忆和长期记忆的三阶段记忆模型,针对程序性记忆、时空情景记忆、情感记忆和社会记忆等具身型记忆,开辟通用人工智能的新道路。

开拓计算的新疆域要特别重视跨学科的合作。脑科学和生物学是与计算机联系最密切的学科,这三门学科的融合必将闯出一片新天地。当我写这篇文章的时候,突然看到一条新闻:澳大利亚公司Cortical Labs推出世界首台人类脑细胞计算机,将人类神经元直接集成到硅芯片上,计划2025年6月份推向市场,定价35000美元。这种低功耗的类脑计算是值得重视的研究方向。诺伯特·维纳(Norbert Wiener)是行为主义人工智能的奠基人之一,他认为智能是动态系统在环境中保持平衡的能力,机器和人类分别有各自的智能,应该交互认知、迭代发展。维纳是“控制论”的创始人,而与“控制论”有密切联系的“控制科学与工程”,在我国是独立发展的一级学科。虽然许多控制学科领域的学者在研究人工智能,但我国控制学科本身与计算机学科的联系并不密切。计算机学科的学者应当更多地从维纳的原始思想中获取灵感。在人工智能的研究中,将物理学中的理论工具应用于深度学习是一个值得探索的交叉领域,麻省理工学院的物理学者将低级网络动态的“微观物理”与高级模型行为的“热力学”联系起来,研究大模型的泛化,取得有价值的成果,值得我们借鉴。确定因果关系是人工智能的一大挑战。过去20年间经济学的因果分析方法有长足的进展,也许根据冯·诺依曼的理论发展出来的经济学方法,对图灵开创的人工智能研究有意想不到的帮助。

计算机学科的发展已经走上了人机合作的新道路,最佳模式不是AI辅助人类或人类监督AI,而是建立“认知冗余系统”,双方独立判断后通过辩论机制达成共识。当人类与AI形成预测联盟时,实际上创造了一个双层优化系统:AI负责处理高维数据的统计规律,人类提供先验知识约束和价值判断。这种架构既规避了纯粹数据驱动的过度拟合风险,又可以突破人类认知的维度限制。

让我们在充分享受“计算魅力”的同时,开辟计算机学科的新天地。

李国杰

CCF名誉理事长、会士,CCCF前主编。中国工程院院士,中国科学院计算技术研究所研究员。主要研究方向为计算机体系结构、并行算法、人工智能、计算机网络、信息技术发展战略等。lig@ict.ac.cn

李国杰:大力出奇迹的背后是什么?| CCCF精选

李国杰:迎接70年未有之大变局 | CCCF精选

李国杰:成为优秀学者需要陶冶心灵 | CCCF精选

李国杰:为计算机科学技术的大变局立言——祝贺CCCF出刊200期

CCCF专栏 | 国际思维和国际合作

来源:CCFvoice

相关推荐