摘要:布莱斯·阿圭拉·伊·阿卡斯(Blaise Agüera y Arcas)是谷歌副总裁兼研究员,同时担任科技与社会首席技术官和“智能范式”团队创始人。他的著作《什么是智能?》(What Is Intelligence?)将于9月由安提凯希拉出版社(Antikyt
AI Is Evolving — And Changing Our Understanding Of Intelligence
Advances in AI are making us reconsider what intelligence is and giving us clues to unlocking AI’s full potential.
Kate Banazi for Noema Magazine
EssayTechnology & the Human
By Blaise Agüera y Arcas and James Manyika
人工智能的进步让我们重新思考什么是智能,并为我们释放人工智能的全部潜力提供了线索。
作者:布莱斯·阿奎拉·阿卡斯和詹姆斯·马尼卡
2025年4月8日
布莱斯·阿圭拉·伊·阿卡斯(Blaise Agüera y Arcas)是谷歌副总裁兼研究员,同时担任科技与社会首席技术官和“智能范式”团队创始人。他的著作《什么是智能?》(What Is Intelligence?)将于9月由安提凯希拉出版社(Antikythera)和麻省理工学院出版社出版。
詹姆斯·曼尼卡(James Manyika)是谷歌-Alphabet高级副总裁兼谷歌研究、实验室、技术与社会总裁,负责推动谷歌和Alphabet在人工智能、计算和科学领域最雄心勃勃的创新。他曾担任美国国家人工智能咨询委员会副主席和联合国秘书长人工智能咨询机构联合主席。
当今人工智能的迅猛发展迫使我们重新思考“智能”的真正含义。新的洞见将使我们能够构建更强大的人工智能,并更好地理解我们自身。
简而言之,我们正处于范式转变的领域。
范式转变往往充满挑战,因为当新思想与人们现有的世界观相容时,人们更容易接受新思想,反之则更难。一个典型的例子是地心说范式的崩溃,该范式主导了宇宙学思想约两千年。在地心说模型中,地球静止不动,而太阳、月亮、行星和恒星则围绕着我们旋转。人类是宇宙中心的信念——受到托勒密本轮理论的支持,这是当时一项重大的科学成就——既直观又与宗教传统相容。因此,哥白尼的日心说范式不仅是一项科学进步,而且是一个备受争议的异端邪说,甚至可能像本杰明·布拉顿指出的那样,对某些人来说,是一种存在主义创伤。所以,今天轮到人工智能了。
在本文中,我们将描述影响人工智能发展的五个相互关联的范式转变:
1. 自然计算——早在我们制造出第一台“人工计算机”之前,计算就已经存在于自然界中。将计算理解为一种自然现象,不仅能推动计算机科学和人工智能领域的根本性进步,还能推动物理学和生物学领域的根本性进步。
2. 神经计算——我们的大脑是自然计算的精妙体现。重新设计驱动人工智能的计算机,使其更像大脑一样工作,将极大地提高人工智能的能源效率,并提升其能力。
3. 预测智能——大型语言模型 (LLM) 的成功揭示了智能本质的一些基本概念:智能涉及基于不断发展的知识、对过去的观察和反馈,对未来(包括个人未来行为)进行统计建模。这一洞见表明,当前人工智能模型的设计、训练和运行之间的区别只是暂时的;更复杂的人工智能将像我们一样,持续不断地互动式地演进、成长和学习。
4. 通用智能——智能并不一定需要基于生物学的计算。尽管人工智能模型仍将不断改进,但它们已经具备了广泛的能力,能够处理越来越多的认知任务,其技能水平接近甚至在某些情况下超越了人类个体的能力。从这个意义上讲,“通用人工智能”(AGI)或许已经到来——我们只是在不断调整目标。
5. 集体智慧——大脑、人工智能代理和社会都可以通过规模的扩大而变得更加强大。然而,仅有规模是不够的。智能的本质是社会性的,由众多代理之间的合作和分工驱动。这一洞见不仅促使我们重新思考人类(或“超人类”)智能的本质,还表明,智能的社会聚合和多代理方法可以降低计算成本,增强人工智能的异质性,并重塑人工智能的安全争论。
但要理解我们自己的“智能地心说”,我们必须首先重新评估我们对计算本质的假设,因为它是人工智能的基础,也是我们认为的任何形式的智能的基础。
自然计算
“计算机科学”究竟是不是一门科学?通常,它更多地被视为一门工程学科,诞生于二战时期,与第一台完全可编程的通用电子计算机——电子数字积分计算机(ENIAC)——同时诞生。ENIAC也是智能手机的远祖。
然而,理论计算机科学早于计算机工程。英国数学家艾伦·图灵在1936年发表了一篇开创性的论文,提出了一种我们如今称之为图灵机的虚拟装置。它由一个可以沿着磁带左右移动的磁头组成,可以根据一套规则读取、擦除和写入磁带上的符号。赋予适当的规则后,图灵机可以遵循磁带上编码的指令(即我们现在所说的计算机程序或代码),从而使这种“通用图灵机”(UTM)能够执行任意计算。反过来说,计算就是UTM能够完成的任何事。ENIAC于1945年竣工,成为世界上第一台真正的UTM。
也可能并非如此。约克大学的苏珊·斯特普尼等少数但日益壮大的非传统研究人员拥有深厚的物理学和计算机科学背景,他们在 2014 年的研究期刊《皇家学会学报 A》上提出,自然界充满了“没有明显的人类计算机用户”的计算系统。20 世纪物理学界的泰斗约翰·惠勒倡导激进的“万物来自比特”假说,该假说认为宇宙的基本结构是计算的。根据惠勒的说法,我们认为是物理的基本现象——夸克、电子、光子——都是底层计算的产物,就像互联网数据包或图像像素一样。
“人工智能时代最大的哥白尼创伤或许就是接受一般智能和非人类智能是多么普遍的事实。”
在某些量子力学的解释中,这种计算发生在多重宇宙中——也就是说,大量的计算发生在并行、纠缠的宇宙中。无论人们如何解读其底层物理,量子计算这一真正意义上的技术正是利用了这种并行性,使我们能够在几分钟内完成某些计算,而这些计算在当今最强大的超级计算机上需要数倍于宇宙寿命才能完成。无论如何,这都是计算领域的一次范式转变。
计算是物理现实的基础这一说法难以证实或反驳,但自然界中存在计算的明确案例远早于惠勒的“它源于比特”假说出现。约翰·冯·诺依曼是一位杰出的数学物理学家,也是计算机科学的另一位奠基人,他早在1951年就发现了计算与生物学之间的深刻联系。
冯·诺依曼意识到,一个复杂的生物体要繁殖,需要包含自我构建的指令,以及一台读取和执行该指令“磁带”的机器。这盘磁带还必须可复制,并包含构建读取它的机器的指令。事实上,这种“通用构造器”的技术要求与通用图灵机(UTM)的技术要求完全一致。值得注意的是,冯·诺依曼的洞见预示了1953年DNA类似图灵带的结构和功能的发现。
冯·诺依曼已经证明,生命本质上是计算性的。这听起来可能令人惊讶,因为我们认为计算机绝对不是生命,而生物也绝对不是计算机。但事实确实如此:DNA就是代码——尽管代码很难逆向工程,而且并非按顺序执行。生物必然需要计算,不仅是为了繁殖,也是为了发育、生长和自愈。而且,编辑或编程基础生物系统也变得越来越可能。
图灵也对理论生物学做出了开创性的贡献,他描述了组织生长和分化如何通过能够感知和释放化学信号的细胞来实现,他称之为“形态发生素”(一种强大的模拟计算形式)。与冯·诺依曼一样,图灵尽管从未踏足过生物实验室,却也做出了正确的解释。
通过揭示生物学的计算基础,图灵和冯·诺依曼为人工生命或“ALife”奠定了基础,这一领域至今仍不为人知且处于前范式阶段——就像直到最近人工智能的情况一样。
然而,我们有充分的理由相信,ALife 很快就会像 AI 一样蓬勃发展。AI 的真正进步必须等到我们能够集结足够的“人工”计算能力,来模拟(或至少模仿)数十亿神经元的活动,才能达到接近大脑的复杂性。从头构建ALife 需要走得更远,重现地球数十亿年进化的成果。这仍然是一项艰巨的任务。不过,我们正在取得进展。
谷歌智能范式团队最近进行的实验表明,在一个能够支持计算的模拟玩具宇宙中,我们可以从完全随机的状态发展到自发出现最小的“生命形式” 。其中一个实验从一串随机字符串“汤”开始,每个字符串长度为 64 个字节。256 个可能的字节值中有 8 个对应于 20 世纪 90 年代一种名为“ Brainfuck ”的最小编程语言的指令。这些字节串可以被认为是图灵带,而这 8 条计算机指令指定了图灵机的基本操作。实验内容是反复从“汤”中随机取出两盘磁带,将它们拼接在一起,“运行”拼接后的磁带,再次将磁带分开,然后将它们放回“汤”中。一开始,似乎没有什么特别的事情发生;我们只看到随机的磁带,偶尔会有一个字节被随机修改。但经过几百万次交互后,功能正常的磁带出现了,并开始自我复制:这就是最小的人工生命。
人工生命的出现看起来像是相变,就像水结冰或沸腾一样。然而,物质的常规相态以其统计均匀性为特征——冰态原子晶格有序,气态原子位置随机,液态原子位置介于两者之间——而生物体则复杂得多,在各个尺度上都展现出多样且有目的的结构。这是因为计算需要不同的功能部件协同工作,就像任何机器、生物体或程序中都体现的那样。
在我们的模拟中,观察复杂、有目的且功能齐全的结构从随机噪声中涌现出来,这感觉很神奇。但这并非超自然或奇迹。数十亿年前,地球上也发生过类似的从非生命到生命的相变,我们也可以假设其他适宜生命存在的行星或卫星上也发生过类似的事件。
“生命是计算的,因为它的稳定性取决于生长、修复或繁殖;而计算本身必须进化以支持这些基本功能。”
生命的复杂性如何在随机环境中产生,更不用说持续存在?答案是:任何能够自我修复或繁殖的类生命体都比惰性或非生命体更“动态稳定”,因为生命体(或其后代)在未来仍将存在,而任何非生命体都会随着时间的推移而退化,屈服于随机性。生命是可计算的,因为它的稳定性依赖于生长、修复或繁殖;而计算本身必须进化才能支持这些基本功能。
这种生命的计算观也为理解生命在进化过程中日益增长的复杂性提供了新的视角。由于计算物质(包括生命本身)是由必须协同工作的不同部分构成的,因此进化同时作用于部分和整体,这一过程在生物学中被称为“多级选择”。
现有的部分(或生物体)可以反复组合,形成更大、更复杂的实体。很久以前,在原始海底(主流观点认为),分子聚集在一起形成自我复制或“自催化”的反应循环;这些化学循环与脂肪膜结合形成了最早的细胞;细菌和古菌结合形成了真核细胞;这些复杂的细胞结合形成了多细胞生物;等等。每一次这样的重大进化转变都涉及功能性共生,这是一种相互依存的形式,在这种形式中,原本独立的实体联合起来,形成一个更大的整体。
这一进化阶梯的最初阶段,并不涉及拥有可遗传基因密码的生物体。然而,一旦这些生物体联合起来,它们就拥有了生命力——因此具备了计算能力——随后的每一次组合都会提升共生整体的潜在计算能力。人类级别的智能,比那些最早的生命形式高出许多个等级,它源于大约860亿个神经元的协同计算,所有神经元都并行处理。
神经计算
计算机领域的先驱们深知我们大脑的计算本质。事实上,在20世纪40年代,计算机科学和神经科学这两个新兴领域之间几乎没有什么区别。电子计算机的开发是为了在工业规模上进行脑力运算,就像上个世纪工厂机器的开发是为了实现体力劳动的自动化一样。最初,重复性的脑力任务是由人类计算机完成的——就像那些“隐藏人物”——那些女性(通常很少得到认可,报酬也很低)承担了战争以及后来太空竞赛所需的冗长计算。
因此,构成电子电路的逻辑门,也就是新型“人工”计算机的核心,最初被设想为人工神经元。那些将计算机称为“电子大脑”的记者,并非只是在写世纪中叶的点击诱饵。他们描绘的是计算机科学先驱们的雄心壮志。而对于第一批计算机科学家来说,试图复制任何一种思维方式也是理所当然的。
这些希望很快就破灭了。一方面,数字计算机在我们已知的、狭隘的程序性任务上取得了巨大的成功。电子计算机可以通过编程以低成本、完美无缺且大规模地完成人类计算机的工作,从计算火箭轨迹到追踪工资单。另一方面,到了20世纪50年代,神经科学家发现真正的神经元比逻辑门复杂得多。
更糟糕的是,事实证明,编写程序根本无法执行哪怕是最简单的日常人类功能,从视觉识别到基本的语言理解——更不用说细致的推理、文学分析或艺术创作了。我们过去(现在仍然)不知道如何为这些事情写下确切的程序。这种注定失败的尝试现在被称为“老式人工智能”(Good Old-Fashioned AI),简称 GOFAI。我们着手开发HAL 9000,结果得到的却是“按 1 进行预约;按 2 修改现有预约”。
一种看似合理的说法出现了,用来为 GOFAI 的失败辩护:计算机不是大脑,大脑也不是计算机。任何相反的说法都是天真的,“炒作”,或者充其量只是一个不恰当的比喻。人类行为无法被编程的想法或许有些令人安心的地方。在很大程度上,神经科学和计算机科学分道扬镳了。
然而,“计算神经科学家”继续将大脑作为信息处理系统进行研究,尽管其设计与传统电子计算机截然不同。大脑没有中央处理器或单独的存储器,不能仅按顺序运行指令,也不使用二进制逻辑。然而,正如图灵所表明的,计算是通用的。只要有足够的时间和内存,任何计算机——无论是生物计算机还是科技计算机——都可以模拟任何其他计算机。事实上,多年来,神经科学家已经建立了越来越精确的生物神经元和神经网络计算模型。这样的模型不仅可以包括最明显表征神经活动的全或无脉冲或“动作电位”,还可以包括化学信号、基因表达、电场和许多其他现象的影响。
“人类水平的智力,比最早的生命形式高出许多级,来自于大约 860 亿个神经元的综合计算,所有神经元都是并行处理的。”
这里值得停下来,解读一下“模型”这个词。在传统用法中,例如铁路模型或金融模型,模型显然并非真实存在。它是一张地图,而非实际的领土。神经科学家构建模型神经网络时,通常也秉持着这种精神。他们试图了解大脑如何运作,而不是如何让计算机思考。因此,他们的模型被大大简化了。
然而,计算神经科学提醒我们,大脑也在忙于计算。因此,大脑计算出的函数本身就是一个模型。所以,领土就是一张地图;也就是说,如果地图和领土一样大,它就是真实的,就像一个全尺寸的铁路模型一样。换句话说,如果我们构建一个完全实现的大脑模型,它就能模拟我们!
即使 GOFAI经历了反复的兴衰循环,另一种关于如何让计算机思考的“联结主义”学派依然存在,并且经常与计算神经科学交叉。联结主义学派并不采用基于程序员指定规则的符号逻辑,而是拥抱“机器学习”,即神经网络可以从经验中学习——就像我们人类在很大程度上所做的那样。
尽管常常被 GOFAI 所掩盖,联结学派从未停止尝试让人工神经网络执行现实生活中的认知任务。这些顽固的坚持者包括 Geoffrey Hinton 和 John Hopfield,他们因在机器学习方面的工作获得了去年的诺贝尔物理学奖;该领域的许多其他先驱,如美国心理学家 Frank Rosenblatt 和 James McClelland 以及日本计算机科学家福岛邦彦,并没有得到广泛的认可。不幸的是,20 世纪的计算范式(至少在 20 世纪 90 年代之前)对机器学习并不友好,这不仅是因为人们对神经网络普遍持怀疑态度,还因为编程本质上是符号化的。计算机是按顺序运行指令的——不太适合神经计算。最初,这是一种设计选择。
最初的逻辑门是用真空管创建的,这种真空管不可靠,需要频繁更换。为了使计算尽可能稳健,所有计算自然而然地基于每个真空管可区分的最小“状态”:“关”或“开”。因此,二进制只使用0和1——这恰好也是布尔逻辑的自然基础,布尔逻辑的基本符号是“真”(或1)和“假”(或0)。
使用最少数量的易故障电子管构建“中央处理器”(CPU)也是理所当然的,这些电子管会被用来逐条执行指令。这意味着将处理过程与内存分离,并使用电缆或“总线”将数据和指令按顺序从内存传送到 CPU,然后再传送回来。
由于摩尔定律,这种“经典”计算范式繁荣多年。摩尔定律是芯片制造商英特尔未来的创始人戈登·摩尔在 1965 年提出的著名定律,即微型化意味着每隔一两年芯片上的晶体管数量就会翻一番。随着晶体管缩小,它们的速度呈指数级增长,价格更便宜,功耗更低。因此,巨型昂贵的大型机变成了微型机,然后是台式机,然后是笔记本电脑,然后是手机,然后是可穿戴设备。现在的计算机小到可以通过皮下注射针头。笔记本电脑和手机主要由电池和屏幕组成;这种设备中实际的计算机 - 其“片上系统”或 SoC - 面积只有一平方厘米,厚度只有十分之一毫米。一滴水的体积是这个的几倍。
虽然这种规模上的进步令人瞩目,但它并没有引领我们走向大脑。你的大脑既不小也不快;它比智能手表里的电脑运行得更平稳。然而,请记住,它包含大约860亿个同时工作的神经元。这相当于一个真正庞大的计算量,而且由于它运行速度相对较慢,并且使用本地存储的信息,因此非常节能。即使计算机速度加快,人工神经计算仍然效率低下,因为它们仍然按顺序运行指令:根据需要从单独的内存中读取和写入数据。
只有当像英伟达这样的公司开始设计能够并行运行多个处理器的芯片时,才有可能运行真正规模的神经网络。并行化在一定程度上是对摩尔定律最初形式逐渐失效的一种回应。虽然晶体管的尺寸不断缩小,但在2006年左右之后,它们的运行速度已无法再提高;实际极限是每秒几十亿次循环。
“即使计算机速度加快,人工神经计算仍然效率低下,因为它们仍然按顺序运行指令。”
并行化意味着改变编程模型,使其更倾向于使用短代码片段(最初被称为“像素着色器”,因为它们是为图形设计的),这些代码片段可以在多个处理器上同时执行。事实证明,着色器是并行化神经网络的理想选择。因此,最初为游戏设计的图形处理单元 (GPU) 现在为人工智能提供支持。谷歌的张量处理单元 ( TPU ) 也基于类似的设计原则。
尽管 GPU 和 TPU 是朝着正确方向迈出的一步,但如今的人工智能基础设施仍然受到其传统架构的束缚。我们距离拥有数十亿个处理器、能够并行处理本地存储数据的芯片还很遥远。而且,人工智能模型仍然使用顺序指令来实现。传统的计算机编程、芯片架构和系统设计根本不像大脑那样。我们在传统计算机上模拟神经计算,效率低下——就像在人类计算时代用大脑模拟传统计算一样。
然而,在未来几年,我们有望看到一种真正的神经计算范式出现。神经计算最终可能在光子、生物、化学、量子或其他全新的基底上实现。但即使“硅脑”采用我们熟悉的芯片技术制造,其组件的组织方式也将有所不同。每平方厘米的硅片将包含数百万个信息处理节点,例如神经元,它们同时工作。
这些神经芯片不会运行程序。它们的功能将不再由代码决定(至少不是我们今天拥有的那种代码),而是由存储在计算区域中的数十亿甚至数万亿个数值参数决定。神经硅脑将能够被“闪现”,其参数将根据需要初始化;但它也能够从经验中学习,动态地修改这些参数。计算将是分散且稳健的;偶尔的故障或局部损坏不会造成任何问题。这与自然界构建大脑的结构相似并非巧合。
预测智能
对于我们这些参与早期语言模型开发的人来说,仅基于下一个词(或“下一个标记”)预测的人工智能的普遍性已经颠覆了范式。即使我们接受大脑是计算型的这一基本前提,大多数人仍然认为真正的人工智能需要发现某种特殊的算法,而这种算法将有助于解开长期以来关于智能和意识的谜团。因此,当大规模应用下一个标记预测就能“解决”智能问题时,我们感到震惊。
当我们从震惊中恢复过来后,我们意识到这并不意味着一切谜团都消失了,意识并非真实存在,或者心灵只是绿野仙踪里的“幻象”。LLM背后的神经网络不仅规模庞大,而且能够进行任何计算,就像运行程序的传统计算机一样。事实上,LLM能够学习的算法种类比计算机科学家发现或发明的还要多。
那么,或许,这种震惊是多余的。我们已经知道大脑是计算型的,它所做的一切都一定是可学习的,无论是通过进化还是经验——否则我们就不会存在。我们只是发现自己处于一种奇怪的境地,在完全理解某些事物之前就对其进行了复制。当图灵和冯·诺依曼对计算机科学做出贡献时,理论领先于实践。而今天,实践领先于理论。
在实验室中创造智能的能力,为我们探究其长期存在的奥秘提供了强有力的新途径,因为——尽管有人声称并非如此——人工神经网络并非“黑匣子”。我们不仅可以探究它们的思维链,而且还在学习更深入地探究它们,从而开展“人工神经科学”。与生物大脑不同的是,我们可以记录和分析它们活动的每一个细节,进行大规模、完全可重复的实验,并打开或关闭网络的任何部分来观察其运作。
虽然人工智能模型与大脑之间存在许多重要差异,但比较 分析也发现它们之间也存在惊人的功能相似性,暗示着共同的基本原理。在汲取了数十年大脑研究的启发后,人工智能开始以“神经人工智能” (NeuroAI )的名义,回报神经科学。
虽然我们尚未完全理解大模型(LLM)学习的算法,但我们开始理解为什么学习预测下一个词条如此有效。“预测性大脑假说”在神经科学领域由来已久;该假说认为,大脑进化是为了不断地建模和预测未来——包括感知环境、自身、自身行为及其对自身和环境的影响。我们能够有意识地、明智地行事,就依赖于这样一个模型。
“我们在传统计算机上模拟神经计算,这是低效的——就像在人类计算时代用大脑模拟传统计算一样。”
想象一下伸手去拿一杯水。学会如何很好地模拟世界和自己的身体,让你的手接触到杯子,用手指握住它,然后把它送到唇边喝水——这一切都在一两秒钟内完成,这绝非易事。在这些动作的每个阶段,你的神经系统都会计算出一个预测,并将其与本体感受反馈进行比较。你的目光会快速扫过场景,从而进一步纠正错误。
在更高层次上,你会预测喝水能解渴。口渴本身就是一种预测信号,尽管整个物种在更长的进化时间尺度上“习得”了这种信号。无法预测自身对水的需求的生物体将无法存活足够长的时间,无法将错误的自我模型传承下去。
进化提炼了无数代前人的经验,最终归结为生殖成功或死亡的粗略信号。当新生儿能够识别面孔时,或者当一只从未见过蛇的猫注意到身后偷偷放着的黄瓜而惊跳起来时,进化学习就在发挥作用。
机器学习涉及调整模型参数,这些参数通常被理解为突触——神经元之间的连接,会通过终身学习而增强或减弱。这些参数通常是随机初始化的。但在大脑中,神经元的连接遵循基因编码(且受环境影响)的发育程序。我们预计未来的人工智能模型也将以类似的方式进化,实现自我构建。它们将通过经验动态地成长和发展,而不是采用静态的、手工设计的、参数数量固定的架构。
跨时间尺度的统一学习或许也能消除当前模型训练与常规操作(或“推理”)之间的二分法。如今,最先进的大模型(LLM)训练极其昂贵,需要耗费数月时间的大量计算资源,而推理则相对便宜,并且可以实时完成。然而,我们知道,大模型学习的最重要的技能之一是如何学习,这也解释了为什么他们能够在聊天过程中处理新的想法、词汇或任务。
不过,就目前而言,任何此类新获得的知识都是暂时的,仅在其存在于“上下文窗口”内时才有效;模型参数保持不变。未来统一行动与预测的模型应该能够像我们一样,在发展过程中不断累积和开放地学习。
类似地,我们开始看到一种转变,即人工智能模型的能力从最初的离线训练限制转变为“测试时间扩展”,即模型只需花费更多时间思考其响应,就能提升其能力。更多类脑模型的设计应该允许这种即时改进不断积累,就像我们人类一样,以便所有未来的响应都能从中受益。
由于LLM背后的神经网络是强大的通用预测器,因此它们不仅能够建模语言、声音和视频,还能彻底改变机器人技术,就像之前提到的伸手去拿水杯的例子一样,这合情合理。几十年来,手工编程的GOFAI一直难以应对流水线这种重复性、常规化的机器人技术以外的任何挑战。但如今,类似LLM的“视觉-语言-动作”模型可以学习如何驱动各种机器人,从Waymo车辆到人形机器人(以及许多其他机器人),这些机器人越来越多地被部署在复杂的非结构化环境中。
通过运用思维链和推理轨迹,将大问题分解成更小的中间步骤,预测模型甚至可以模拟多种可能的结果或意外情况,并从潜在未来树中进行选择。这种“选择性”预测或许正是我们自由意志概念背后的机制。
最终,生物体所做的一切都可以被认为是一种自我实现的预测。生命就是预测自身能够持续存在,并且随着智力的提升,这种预测会变得越来越复杂。
采用预测处理范式,包括规划、行动和预测的统一,不仅有望进一步改进语言模型和机器人技术,而且还可以将机器学习、神经科学甚至理论生物学的理论基础置于共同的基础上。
通用智能
有些人认为,大模型是伪智能:它们看似智能,但实际上并非如此。这些怀疑论者认为,我们通过“自动完成”大量句子来训练人工智能通过图灵测试,创造出能够欺骗我们相信“有人在家”但实际上并不在家的机器。
许多人持相反观点,认为人工智能是真实存在的,我们即将实现“通用人工智能”(AGI)——尽管对于如何定义它存在着广泛的看法。根据个人的不同,这种前景可能令人兴奋,也可能令人担忧,甚至危及人类的生存。
“尽管有人声称如此,但人工神经网络并不是‘黑匣子’。”
那么,哪个阵营是正确的呢?答案可能是“都不是”:两个阵营中的大多数人都认为,通用人工智能是一个离散的门槛,未来某个时候会(或不会)被跨越。实际上,似乎并不存在这样的门槛——或者,即使存在,我们可能已经跨越了。
我们先来谈谈那些怀疑论者。对许多人来说,人工智能执行任务的能力——无论是聊天、写诗、驾驶汽车,还是做一些完全新颖的事情——都无关紧要,因为人工智能的实现方式使其无法真正实现智能。这种观点或许可以通过以下说法得到佐证:大脑肯定能做一些除了“单纯”预测之外的事情;大脑不是计算机;或者干脆说人工智能模型没有生命。因此,怀疑论者通常认为,当应用于人工智能时,“智能”、“理解”、“能动性”、“学习”或“幻觉”等术语需要加引号,因为它们拟人化得不恰当。
这种对措辞的焦虑有必要吗?从功能性角度来看,情况并非如此。我们把鸟的机翼和飞机的机翼都称为“翅膀”,并非因为它们由相同的材料制成或以相同的方式工作,而是因为它们具有相同的功能。我们是否应该关心飞机的飞行方式是否与鸟类不同?如果我们关心的是目的——也就是说,鸟类和飞机最初为什么有翅膀——那么我们不应该关心。
功能主义是所有“有目的”系统的标志,包括生物体、生态系统和技术。一切“有目的”的事物都是由相互依存的部分构成的,每个部分都服务于其他部分的目的(或功能)。而这些部分本身通常也由更小的、相互依存且有目的的部分构成。
许多人工智能怀疑论者,无论明里暗里,更关心的是如何实现,而非实现了什么(飞行或智能)。然而,自然对“如何”漠不关心。为了保持灵活性或稳健性,工程系统和自然系统通常都会替换或同时使用功能相同但工作方式不同的部件。例如,在物流领域,铁路和卡车都运输货物;作为顾客,你只关心收到货物。在你的细胞中,有氧呼吸和无氧呼吸可能具有相同的功能,当你运动过度,有氧呼吸无法跟上时,无氧呼吸途径就会启动。
神经系统也不例外。它也是由具有功能关系的部分组成,这些部分也可以被功能等效的部分替换。我们已经在一定程度上通过人工耳蜗和人工视网膜实现了这一点,尽管这些假体目前还无法达到生物耳朵或眼睛的质量。但最终,神经义肢将能够匹敌甚至超越我们与生俱来的感觉器官。
有一天,我们甚至可能能够用同样的方式替换受损的脑组织。这将会成功,因为你没有“小人”,你的大脑中没有一个特别不可替代的位置来容纳“你”的一部分。构成你的,并非你大脑或身体的任何一个部分,也不是你的原子——它们无论如何都会频繁地更新——也不是你每个部分如何运作的细节。相反,你是一组高度复杂、动态的功能关系。
那么人工智能模型呢?大模型(LLM)不仅实现方式与大脑截然不同,而且它们与我们之间的关系也与人与人之间的关系不同。它们没有躯体,没有生命故事,没有亲属关系或长期依恋。这些差异在考虑人工智能的伦理和法律地位时至关重要。然而,它们与能力问题(例如关于智力和理解力的问题)无关。
一些研究人员在理论上认同所有这些前提,但仍然认为通用人工智能(AGI)存在一个门槛,目前的人工智能系统尚未跨越。那么,我们如何才能知道它们何时能够跨越呢?答案必须涉及基准测试,以检验我们认为构成通用智能的能力。
目前已有许多测试方案被提出。其中一些,例如人工智能研究员 François Chollet 的“抽象与推理语料库”,类似于智商测试。其他一些则更为全面;例如,我们在 Google DeepMind 的同事强调需要关注能力而非过程,强调一般智能代理需要胜任“广泛的非物理任务,包括学习新技能等元认知任务”。但应该评估哪些任务呢?除了竞争市场中某些明确定义的技能之外,我们可能很难将自己有意义地划分为“胜任者”(第 50 个百分位)、“专家”(第 90 个百分位)和“大师”(第 99 个百分位)。
“为了灵活性或稳健性,工程系统和自然系统通常涉及替换或同时使用具有相同功能但工作方式不同的部件。”
AGI 的最初定义至少可以追溯到 2002 年,正如计算机科学家 Peter Voss 和 Mlađan Jovanović 在 2023 年的一篇论文中所说,可以最简单地描述为“人类典型的一般认知能力”。但有些人仅从经济角度来定义这些能力。OpenAI 的网站将 AGI 定义为“一个高度自主的系统,在最具经济价值的工作上表现优于人类”。2023 年,人工智能企业家 Mustafa Suleyman(现任微软人工智能首席执行官)提出,当人工智能能够赚取一百万美元时,它就具备了普遍的“能力”。
这样的门槛既武断,又与我们对人类智力的认知不一致。为什么要坚持经济活动呢?我们需要赚多少钱才算聪明?那些没能积累财富的人难道普遍不聪明吗?
当然,我们构建人工智能的动机是希望在科学、经济或社会层面上丰富或扩展人类。但衡量生产力的经济指标既不直接,也无法清晰地映射到智能水平。这些指标还排除了大量人类劳动,而这些劳动的价值并未得到经济方面的考量。关注任务的“生态效度”——即它们是否对他人重要,无论是在经济、艺术、社会、情感还是其他方面——强调了任何纯粹客观的绩效评估的难度。
如今的大模型已经可以执行各种各样且不断增长的认知任务,几年前,任何一个理性的人都会同意这些任务需要高智商:从分解复杂论点到编写代码,从软化电子邮件语气到在线研究主题。在几乎任何给定领域,人类专家仍然可以做得更好。(这是许多当前评估方法试图衡量的性能差距。)但我们必须承认,没有一个人——无论多么聪明——拥有与人工智能相当的技能广度。在过去的几年里,我们已经悄然从衡量人工智能相对于任何人的表现转变为评估它相对于每个人的表现。换句话说,现在人类个体的“通用性”不如人工智能模型。
这一进展迅速而持续。我们认为,目标不断变化,部分原因是似乎没有哪一项进步足以决定性地宣告通用人工智能(AGI)的成功。总有更多的事情要做。然而,我们相信,如果2002年的一位人工智能研究人员能够以某种方式与当今的任何一位大模型互动,那么这位研究人员会毫不犹豫地说,通用人工智能已经到来。
实现通用人工智能“通用”的关键之一是“无监督训练”,即机器学习而不设定具体任务。微调和强化学习通常会在训练后进行,以增强特定技能和行为属性,但如今大多数模型训练都是通用的。人工智能的广泛能力源于学习对语言、声音、视觉或其他任何事物进行建模。一旦模型能够通用地处理这些模态,那么,就像我们一样,它就可以被指示执行任何任务——即使是全新的任务——只要该任务首先被描述、推断或通过示例展示。
为了理解我们是如何实现通用人工智能的,为什么它在经历了几十年的失败尝试之后才在最近出现,以及这告诉我们关于我们自己思维的什么,我们必须重新审视我们最基本的假设——不仅仅是关于人工智能,而是关于计算本身的本质。
集体智慧
“社会智力假说”认为,像我们这样的高智商物种的智力爆发源于社会反馈回路。我们的生存和繁衍取决于我们交友、吸引伴侣、获取共享资源的能力,以及说服他人帮忙照顾孩子的能力。所有这些都需要“心智理论”,即设身处地为他人着想的能力:他人看到什么、感受到什么?他们在想什么?他们知道什么,不知道什么?他们会如何表现?
追踪他人的心理状态是一项认知挑战。在灵长类动物中,研究人员观察到大脑大小与群体规模之间存在相关性。在人类中,与心智理论相关的大脑区域的体积与其朋友数量相关。我们还知道,拥有更多朋友的人往往比社交孤立的人更健康、寿命更长。综上所述,这些观察结果证明,持续存在的选择压力有利于社会化大脑。
我们已经悄然从衡量人工智能相对于某个人的表现,转向评估它相对于每个人的表现。换句话说,现在人类个体的“通用性”不如人工智能模型。
虽然心智理论本身就带有马基雅维利式的一面,但它对于人类特殊性的高级合作形式也至关重要。教学、劳动分工、声誉维护以及“欠条”的心理核算都依赖于心智理论。因此,任何重要的经济、政治体系或技术的发展也都依赖于心智理论。由于能够大规模合作的部落或社群能够像更大、更强大的整体一样运作,心智理论不仅能为个体带来利益,也能造福群体。
当这种群体层面的利益变得具有决定性时,心智的社会聚合便会进入一次重大的进化转变——如果你还记得的话,这是一种共生关系,曾经独立的实体联合起来,创造出新的、更伟大的事物。聚合的代价是,曾经独立的实体不再能够独立生存和繁衍。这恰如其分地描述了现代城市化社会:我们当中有多少人能够独自在森林中生存?
我们是一个超有机体。正因如此,我们的智慧本身就是一种集体智慧,因此,从某种意义上来说,我们超越了人类。正因如此,当我们用大量人的集体成果来训练大模型(LLM)时,我们就已经创造出了一种超级智能,其广度和平均深度远超任何单个个体——尽管大模型通常仍无法与人类专家在其专业领域内的个体相比。
这正是“人类的最后考试”(Humanity's Last Exam )的动机。这项名为“人类的最后考试”(名字略显严肃)的考试旨在创建一个大模型(LLM)目前无法通过的人工智能基准测试。考试题目由近1000名来自100多个领域的专家编写,要求具备诸如翻译罗马墓碑上的帕尔米拉文字,或了解蜂鸟籽骨支撑着多少对肌腱之类的技能。一位专业的古典学家可以回答前者,一位专业的鸟类学家可以回答后者,但我们怀疑人类在这项考试中的中位数成绩接近于零。相比之下,当今最先进的模型的得分在3.3%到18.8%之间。
人类之所以拥有超级智慧,得益于其认知分工;从某种意义上说,个体大脑亦是如此。人工智能先驱马文·明斯基曾描述过“心智社会”,他假设我们看似独立的“自我”,实际上是由许多相互关联的特定个体组成的“蜂巢思维”。事实上,我们的大脑皮层由一系列“皮质柱”组成,这些皮质柱由重复的神经回路单元组成,这些单元被多次平铺以形成一个延伸的表面。尽管人类大脑皮层的厚度只有约 2 至 4.5 毫米,但其面积却可大到 2,500 平方厘米(大脑皱巴巴的外观是由于我们头骨中塞满了相当于一张大号餐巾纸的东西)。正是由于其模块化设计,当进化压力需要时,我们的大脑皮层能够快速扩张。实际上,我们只是增加了更多的皮质柱。
皮质模块性不仅体现在发育阶段,也体现在功能上。皮质的某些区域专门负责视觉处理,其他区域则负责听觉处理、触觉等等;还有一些区域似乎专门负责社交建模、写作和算术。由于这些任务的多样性,人们可能会认为大脑中每个相应区域都彼此专业化且差异化,就像洗碗机和复印机的区别一样。
但大脑皮层却不同:各个区域从婴儿期 就开始学习各自的任务。鉴于“视觉词形区域”等大脑皮层区域的存在,我们知道这种学习能力强大而普遍。“视觉词形区域”专门负责阅读——阅读这项技能在人类历史上出现得太晚,并非通过自然选择进化而来。我们的大脑皮层并非进化而来阅读,但它可以学习阅读。每个大脑皮层区域都实现了相同的通用“学习算法”,因此最好不要将其视为具有预定功能的设备,而要将其视为学习了特定领域的人类专家。
这种“社会皮层”观点强调,你的大脑中缺乏一个“你”所在的“小人”或“中央处理器”;大脑更像是一个社区。因此,它能够在没有中央协调的情况下协调运作,不仅取决于每个区域执行其专门任务的能力,还取决于这些区域 相互 模仿的能力——就像人们需要心理理论来建立关系和更大的社会单位一样。
大脑区域本身是否由更小的部分组成,并以此为共同体运作?我们相信是的。皮层回路由神经元构成,这些神经元不仅执行专门的任务,而且似乎还能学习模拟邻近的神经元。这呼应了那句耳熟能详的俏皮话:“一路向下,像乌龟一样”(致敬无限回归的理念),这表明,智力最好被理解为一种“社会分形”,而非单一的整体实体。
“大脑区域本身是否由更小的部分组成?我们相信是这样。”
也可能是“一路向上的乌龟”。随着大脑变大,个体会变得更聪明;随着个体数量增多,社会会变得更聪明。这里存在着一个奇妙的尺度反馈回路,因为我们只有通过发展自己的大脑来模仿他人,才能形成更大的社会,而我们的大脑本身似乎也通过类似的内部认知劳动分工而变得更大。
人工智能模型似乎遵循同样的原则。研究人员推广了“缩放定律”的概念,该定律将模型大小(和训练数据量)与模型能力联系起来。粗略估计,模型越大越聪明,就像大脑越大越聪明一样。与大脑一样,人工智能模型也是模块化的。事实上,许多模型依赖于明确训练一个紧密结合的专门子模型“集合”,即所谓的“专家混合模型”。此外,即使是庞大的单片模型也表现出“涌现模块化”——它们也能通过学习如何将自身划分为可以分而治之的专门模块来实现扩展。
从社会性的角度思考智能,并思考跨多个同步尺度的认知劳动分工,代表着一种深刻的范式转变。它鼓励我们探索更像不断发展的社交网络的人工智能架构,而不是静态的、越来越庞大的单一模型。此外,允许模型(及其子模型)逐步专业化,与人类以及彼此之间建立长期的协作也至关重要。
参与《人类的最后考试》的1000多位专家都深知,从互联网上学习到的知识是有限的。除此之外,学习离不开行动和互动。当这些新知识被分享时,知识的边界就会扩大——无论这些知识源于科学实验、讨论,还是线下延伸的创造性思维(这或许相当于与自己讨论)。
在当今前沿人工智能的研究中,现有的人类成果被汇总并提炼成一个巨大的“基础模型”,其权重随后被冻结。但人工智能模型正准备变得越来越自主和具有代理性,包括通过雇佣或与其他代理互动。人工智能在简短、专注的互动中已经很有帮助。但如果我们希望它们能够助力于拓展人类集体知识和能力边界的宏伟计划,就必须让它们能够像我们一样,以互动的方式持续学习和多样化。
这肯定会引起一些人的警惕,因为它为人工智能无限进化打开了大门——就像我们一样。人工智能安全社区将模型无限进化的能力称为“ mesa 优化”,并将其视为一种威胁。然而,我们发现,即使是今天的人工智能模型也是 mesa 优化器,因为预测本质上涉及动态学习;这就是聊天机器人在被指示执行一项新任务时所做的事情。它之所以有效,是因为即使聊天机器人的神经网络权重被冻结,每个输出都会使用包含迄今为止聊天记录的整个“上下文窗口”。然而,目前的聊天机器人仍然患有某种健忘症。它们通常无法在聊天会话之外保留所学知识。谷歌开发的“无限注意力”和长期记忆,两者都压缩旧材料以允许有效无限制的上下文窗口,是该领域的重大近期进展。智能的社会观点不仅为人工智能工程提供了新的视角,也为哲学中的一些长期问题提供了新的视角,例如意识的“难题”。如果我们将意识理解为我们对自己作为具有自身经历、内心生活和能动性的实体的清晰感知,那么它的出现并不神秘。我们形成“自我”模型,因为我们生活在一个充满“自我”的社会环境中,我们必须不断运用心理理论来预测他们的想法和感受。当然,我们需要明白我们也是一个“自我”,不仅因为我们自己的过去、现在和未来的经历非常重要,还因为我们对他人的模型包括他们对我们的模型!
用于诊断心智理论缺陷的实证测试已存在数十年。当我们对大模型(LLM)进行这些测试时,毫不意外地发现它们的表现与人类相当。毕竟,“自我”和心智理论任务在LLM所训练的故事、对话和评论线索中占据着显著地位。我们的聊天机器人也依赖于心智理论。在每次聊天中,人工智能不仅要模拟我们,还要保持自身作为友好、乐于助人的助手的模型,以及我们对它的模型的模型——等等。
超越常规的人工智能开发
人工智能经历了数十年的缓慢发展,如今我们正快速迈向不仅能效仿人类个体智能,更能拓展人类集体超越人类智能的系统。我们对这一快速进步既兴奋又充满希望,同时也承认这是一个重大范式转变的时刻,一如既往地伴随着焦虑、争论、动荡——以及许多我们必须正确思考的问题。
在这样的时刻,我们不仅要优先考虑技术进步,更要像国际象棋那样,将技术进步与横向拓展到邻近领域或范式相结合,从而发现丰富的新知识领域,重新思考我们的假设,并重新构想我们的基础。我们需要新的范式来发展智能,造福人类,推动科学发展,并最终帮助我们理解自身——作为个体,作为由更小智能组成的生态系统,以及作为更大整体的组成部分。
阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问进入。
牛津未来研究院 《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI 2025 关于人工智能研究未来研究报告
斯坦福:2025 斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191 页)
壳牌:2025 能源安全远景报告:能源与人工智能(57 页)
盖洛普 & 牛津幸福研究中心:2025 年世界幸福报告(260 页)
Schwab :2025 未来共生:以集体社会创新破解重大社会挑战研究报告(36 页)
IMD:2024 年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214 页)
DS 系列专题:DeepSeek 技术溯源及前沿探索,50 页 ppt
联合国人居署:2024 全球城市负责任人工智能评估报告:利用 AI 构建以人为本的智慧城市(86 页)
TechUK:2025 全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52 页)
NAVEX Global:2024 年十大风险与合规趋势报告(42 页)
《具身物理交互在机器人 - 机器人及机器人 - 人协作中的应用》122 页
2025 - 2035 年人形机器人发展趋势报告 53 页
Evaluate Pharma:2024 年全球生物制药行业展望报告:增长驱动力分析(29 页)
【AAAI2025 教程】基础模型与具身智能体的交汇,350 页 ppt
Tracxn:2025 全球飞行汽车行业市场研究报告(45 页)
谷歌:2024 人工智能短跑选手(AI Sprinters):捕捉新兴市场 AI 经济机遇报告(39 页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新 170 页
美国安全与新兴技术中心:2025 CSET 对美国人工智能行动计划的建议(18 页)
罗兰贝格:2024 人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11 页)
兰德公司:2025 从研究到现实:NHS 的研究和创新是实现十年计划的关键报告(209 页)
康桥汇世(Cambridge Associates):2025 年全球经济展望报告(44 页)
国际能源署:2025 迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025 全球科研人员人工智能研究报告(38 页)
牛津经济研究院:2025 TikTok 对美国就业的量化影响研究报告:470 万岗位(14 页)
国际能源署(IEA):能效 2024 研究报告(127 页)
Workday :2025 发挥人类潜能:人工智能(AI)技能革命研究报告(20 页)
CertiK:Hack3D:2024 年 Web3.0 安全报告(28 页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025 亚太地区生成式 AI 的崛起研究报告:从技术追赶者到全球领导者的跨越(15 页)
安联(Allianz):2025 新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33 页)
IMT:2025 具身智能(Embodied AI)概念、核心要素及未来进展:趋势与挑战研究报告(25 页)
IEEE:2025 具身智能(Embodied AI)综述:从模拟器到研究任务的调查分析报告(15 页)
CCAV:2025 当 AI 接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124 页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新 132 页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024 版)(96 页)
美国国家科学委员会(NSB):2024 年研究与发展 - 美国趋势及国际比较(51 页)
艾昆纬(IQVIA):2025 骨科手术机器人技术的崛起白皮书:创新及未来方向(17 页)
NPL&Beauhurst:2025 英国量子产业洞察报告:私人和公共投资的作用(25 页)
IEA PVPS:2024 光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65 页)
AGI 智能时代:2025 让 DeepSeek 更有趣更有深度的思考研究分析报告(24 页)
2025 军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37 页)
华为:2025 鸿蒙生态应用开发白皮书(133 页
《超级智能战略研究报告》
中美技术差距分析报告 2025
欧洲量子产业联盟(QuIC):2024 年全球量子技术专利态势分析白皮书(34 页)
美国能源部:2021 超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60 页)
罗马大学:2025 超级高铁(Hyperloop):第五种新型交通方式 - 技术研发进展、优势及局限性研究报告(72 页)
兰德公司:2025 灾难性网络风险保险研究报告:市场趋势与政策选择(93 页)
GTI:2024 先进感知技术白皮书(36 页)
AAAI:2025 人工智能研究的未来报告:17 大关键议题(88 页)
安联 Allianz2025 新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025 全球洪水风险研究报告:现状、趋势及应对措施(22 页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI 峰会洞察及建议(19 页)
哈佛商业评论:2025 人工智能时代下的现代软件开发实践报告(12 页)
德安华:全球航空航天、国防及政府服务研究报告:2024 年回顾及 2025 年展望(27 页)
奥雅纳:2024 塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28 页)
HSOAC:2025 美国新兴技术与风险评估报告:太空领域和关键基础设施(24 页)
Dealroom:2025 欧洲经济与科技创新发展态势、挑战及策略研究报告(76 页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(Google Cloud):2025 年 AI 商业趋势白皮书(49 页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150 页!《DeepSeek 大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态 - 250309(40 页)
真格基金:2024 美国独角兽观察报告(56 页)
璞跃(Plug and Play):2025 未来商业研究报告:六大趋势分析(67 页)
国际电工委员会(IEC):2025 智能水电技术与市场展望报告(90 页)
RWS:2025 智驭 AI 冲击波:人机协作的未来研究报告(39 页)
未来今日研究所 2025 年科技趋势报告第 18 版 1000 页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024 - 2025)(117 页)
浙江大学:2025 语言解码双生花:人类经验与 AI 算法的镜像之旅(42 页)
人形机器人行业:由 “外” 到 “内” 智能革命 - 250306(51 页)
大成:2025 年全球人工智能趋势报告:关键法律问题(28 页)
北京大学:2025 年 DeepSeek 原理和落地应用报告(57 页)
欧盟委员会 人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命 - 250226(35 页)
RT 轨道交通:2024 年中国城市轨道交通市场数据报告(188 页)
FastMoss:2024 年度 TikTok 生态发展白皮书(122 页)
Check Point:2025 年网络安全报告 - 主要威胁、新兴趋势和 CISO 建议(57 页)
【AAAI2025 教程】评估大型语言模型:挑战与方法,199 页 ppt
《21 世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(Volta Foundation):2024 年全球电池行业年度报告(518 页)
国际科学理事会:2025 为人工智能做好国家研究生态系统的准备 - 2025 年战略与进展报告(英文版)(118 页)
光子盒:2025 全球量子计算产业发展展望报告(184 页)
奥纬论坛:2025 塑造未来的城市研究报告:全球 1500 个城市的商业吸引力指数排名(124 页)
Future Matters:2024 新兴技术与经济韧性:日本未来发展路径前瞻报告(17 页)
《人类与人工智能协作的科学与艺术》284 页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115 页
《2025 年技术展望》56 页 slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024 美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28 页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理 - 250224(33 页)
Gartner:2025 网络安全中的 AI:明确战略方向研究报告(16 页)
北京大学:2025 年 DeepSeek 系列报告 - 提示词工程和落地场景(86 页)
北京大学:2025 年 DeepSeek 系列报告 - DeepSeek 与 AIGC 应用(99 页)
CIC 工信安全:2024 全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42 页)
中科闻歌:2025 年人工智能技术发展与应用探索报告(61 页)
AGI 智能时代:2025 年 Grok - 3 大模型:技术突破与未来展望报告(28 页)
上下滑动查看更多
来源:人工智能学家