人类智能如何从大脑中涌现?大脑精细模拟重塑 NeuroAI 范式

360影视 2025-01-11 17:32 2

摘要:智能如何从大脑中涌现?人类大脑包含近1000亿个神经元,每种类型的神经元有其独特而优雅的结构。从神经元复杂性角度出发,大脑建模有两条路径:人工神经网络路径,和真实神经元模拟路径。人工神经网络路径将神经元简化为一个点,用简单的数学模型模拟神经元的输入输出行为,然

导语

智能如何从大脑中涌现?人类大脑包含近1000亿个神经元,每种类型的神经元有其独特而优雅的结构。从神经元复杂性角度出发,大脑建模有两条路径:人工神经网络路径,和真实神经元模拟路径。人工神经网络路径将神经元简化为一个点,用简单的数学模型模拟神经元的输入输出行为,然后通过大量的连接形成神经网络。真实神经元模拟路径则是将大脑中的神经元精细地模拟,保留每一个神经元的物理和生物特性,力图再现生物神经元的真实行为。这种 Bottom-up 的方式通过精细地模拟神经元和它们之间的复杂交互,涌现出智能。在集智俱乐部「计算神经科学」读书会,北京大学人工智能研究院助理研究员杜凯老师认为,通过精细大脑模型,有可能实现基于人脑的通用智能。

关键词:大脑精细模拟,树突计算,精细神经元模型,人工智能

作者:杜凯

整理:Yin Ava

目录

1. 背景

1.1 GPT的启发

1.2 进化中的启示

1.3 大脑建模的两条路径

2. 精细模型的理论基础

2.1 大脑精细模型本质上是基于偏微分方程的数学系统

2.2 单个神经元由于丰富的离子通道和树突结构能够执行复杂的计算

2.3 大脑精细模型能独立生成新理论,是与实验科学平行的理论体系

3. 与人工智能的关系和启示

3.1 与人工智能的关系

3.2 单个神经元有强大的计算能力和逻辑推理能力

4. 大规模精细模拟的核心挑战与解决办法

4.1 大脑精细模拟的核心挑战

4.2 计算效率提升-传统方法

4.3 计算效率提升-并行化方法

5. 精细模型的应用

6. 展望:如何构建人类智能?

1.1 GPT的启发

在人工智能领域,构建能模拟甚至超越人类智能的系统一直是科技发展的终极目标。随着技术的进步,我们已经开始尝试探索意识的生命基础——这不仅是科技的挑战,更是对人类文明的一次深刻洞察。

最新的进展中,特别是在大型语言模型如GPT-3的开发上,我们看到了人工智能如何接近这一挑战。GPT-3模型拥有超过1750亿个参数,并且在大规模的数据集上进行了预训练,在多种自然语言处理任务上展示了类似人类的智能水平。这些成果揭示了一个关键的科学启发:“more is different”。当系统的规模达到一定程度时,它的行为不仅仅是组件行为的简单叠加,而是能够自发地涌现全新的性质,表现出质的不同。

大语言模型中的涌现能力。|来源:Emergent Abilities of Large Language Models [2022] Jason WeiYi TayWilliam Fedus et al.

生成式AI的另一个关键启发是规模法则。规模法则描述了模型性能(如语言理解和生成能力)随着模型大小(即参数数量)的增加而提高,性能可以通过这一关系进行预测。这是因为更大的模型可以从更多的数据中学习更复杂的模式,从而在各种任务上表现更好。

生成式AI的规模法则

在人脑和意识的层面,规模法则是否在人脑中起作用?智能是否是涌现的?能否通过这种方式模拟人类的意识?这些问题需要进一步思考和验证。

1.2 进化中的启示

从进化的角度来看,随着生物体的进化,神经系统的规模和复杂性逐步增加,不仅体现在整个神经网络的规模扩展上,也体现在单个神经元的结构和功能复杂性的演变上。对于理解人类意识的产生以及如何在人工智能中模拟类似的智能,这些进化的启示具有重要的参考价值。复杂的神经网络结构和单个神经元的复杂计算能力可能是高级智能和意识形成的重要基础。

从进化中得到的启示:网格规模变化

从进化中得到的启示:单个神经元复杂度的变化

1.3 大脑建模的两条路径

从神经元的复杂性角度出发,大脑建模有两条不同的路径:人工神经网络路径和真实神经元模拟路径。

人工神经网络路径

人工神经网络路径的核心理念是将神经元简化为一个点,用简单的数学模型来模拟神经元的输入输出行为,然后通过大量的连接形成一个神经网络。这种方法抽象了神经元的复杂结构,只保留其核心的计算功能。早期的麦卡洛克-皮茨神经元、感知器、以及现代的深度神经网络(如LSTM、Transformer等)都属于这一路径。

真实神经元模拟路径

真实神经元模拟路径是采取一种还原论的方法,将大脑中的神经元精细地模拟,保留每一个神经元的物理和生物特性,力图再现生物神经元的真实行为。例如,H-H模型(Hodgkin-Huxley Model)和浦肯野细胞的多仓室模型(Multi-Compartmental Model of a Purkinje Cell)都是试图从生物学角度精确模拟神经元内部的电信号生成和传递的模型。这些模型详细描述了神经元各部分(如树突、轴突、胞体)的电特性和化学行为。精细的生物物理神经元模型不仅仅是对神经元的生物学再现,它们实际上可以直接作为一个机器学习系统。这些模型中蕴含的复杂非线性动力学和信号处理能力,使其能够执行复杂的计算任务。

大脑建模的两条路径|An active membrane model of the cerebellar Purkinje cell II. Simulation of synaptic responses. E. Schutter, J. Bower

2.1 大脑精细模型本质上是基于偏微分方程的数学系统

H-H模型

电缆理论(Cable theory)

精细神经元模型

A quantitative description of membrane current and its application to conduction and excitation in nerves [1952] A. L.

Branching dendritic trees and motoneuron membrane resistivity. [1959] W. Rall

H-H 模型由霍奇金和赫胥黎在1952年提出,主要用于描述神经元的电信号生成。这个模型通过一组微分方程计算膜电位的变化,解释了神经元中的离子通道(如钠通道和钾通道)如何通过控制电流流动来产生动作电位。电缆理论(cable theory)由 Rall 在1959年提出,基于偏微分方程描述了电压在电阻和电容作用下的时空变化特性,主要用于描述神经信号沿树突和轴突的传播。神经元的树突和轴突可以被视为一条电缆,电流在其内部传播时会因电阻和电容的作用而逐渐衰减。电缆理论是生物学领域少数理论先于实验验证的领域之一,通过理论推导可以得出有关神经元电活动的时间和空间基本性质,这些理论预测通过后续的实验得到了验证;精细神经元模型结合了H-H模型和电缆理论,利用偏微分方程精确描述神经元内部复杂的电信号产生与传播过程,进一步发展为一种包含复杂树突和离子通道的精细模型

这些模型共从微观的离子通道活动到宏观的电信号在神经元结构中的传播,再到整体的精细模拟,为理解神经元的电活动提供了不同的层次角度。这些理论工具对深入理解神经计算机制和生物神经网络的复杂性具有重要意义,也为现代人工智能系统的设计和优化提供了宝贵的灵感。

2.2 单个神经元由于丰富的离子通道和树突结构能够执行复杂的计算

树突计算理论

神经元的树突在信息处理中具有重要作用。树突不仅仅是被动接收信号的结构,它们具有非常复杂的计算功能,可以通过特定的生物物理机制对输入信号进行处理,实现多种逻辑和非线性操作:

被动滤波(Passive Filtering)

树突的被动特性使得大部分信号会在树突上传播时被滤除。这意味着树突能够选择性地衰减远端的信号,使得只有特定强度的信号能够被有效的从树突远端传递到胞体。这对于噪声过滤和信号选择有重要意义。

逻辑运算(Logical Operations)

兴奋性和抑制性输入之间的交互作用可以实现复杂的逻辑操作。树突通过不同的输入信号组合和整合,能够执行类似逻辑门的功能,从而对输入信号做出更复杂的处理。这使得神经元可以通过树突进行特定信息的计算和选择,赋予神经元更强的选择性和处理能力。

重合检测(Coincidence Detection)

树突可以检测顶树突和基树突之间的信号同步性,即重合检测(Coincidence Detection)。这种机制是通过反向传播的动作电位(backpropagating action potential)来实现的。当顶树突同时受到刺激时,反向传播的动作电位会使这些信号的强度增加,从而增强神经元对多个输入同步出现的敏感性。这种重合检测对时间同步信息的处理尤为重要,在感知和记忆过程中发挥关键作用。

信号放大(Amplification)

树突还可以非线性地放大局部的兴奋性输入信号,从而对特定的输入做出放大响应。这种非线性放大使得数量较少的兴奋性突触信号也能够对神经元的整体反应产生显著影响。

树突信息处理的分类|classes of dendritic information processing. Alexandre PayeurJean-Claude Béïque et al.

非线性树突整合 vs 线性胞体整合|classes of dendritic information processing Alexandre PayeurJean-Claude Béïque et al.

树突具有丰富的信号处理能力,使得神经元可以对输入信号进行复杂的局部处理。基于树突处理不同输入信号的方式对树突的信息处理能力进行分类,可以分为4类:

时空滤波( Spatiotemporal Filtering)

树突能够对输入信号进行时空上的滤波,使信号在传输过程中根据其时间和空间特性进行衰减或放大。

信息选择(Information Selection)

树突能够通过集群输入和树突尖峰(如NMDA尖峰)来执行信息选择,选择性地放大或传递某些输入信号,从而对重要信号进行特定响应。

信息路由(Information Routing)

树突具备信息路由的能力,可以由抑制性突触来决定不同输入信号的传输路径,以便进行特定的处理。

信息多路复用(Information Multiplexing)

树突可以实现信息多路复用,同时处理来自不同来源的信号,这些信号可能包含不同的信息类别,从而使单个神经元具备对多种输入进行整合处理的能力。

从信息整合的角度来看,细胞体通常对输入信号进行线性整合,类似于人工神经网络中的ReLU激活函数。线性整合意味着输入信号的影响是简单的相加关系,最终的输出与输入呈线性相关。而树突能够对局部的兴奋性输入信号进行非线性放大,这种放大是非线性的,意味着多个输入信号的组合效果并不仅仅是其线性加和,而是可能通过叠加产生增强的响应或者减弱的响应。树突的非线性整合和细胞体的线性整合结合起来,使得神经元可以对输入信号进行细致且多样化的处理,同时保持整体的稳定性。

2.3 大脑精细模型能独立生成新理论,是与实验科学平行的理论体系

纹状体中棘神经元非线性树突计算。|Synaptically driven state transitions in distal dendrites of striatal spiny neurons [2011] Joshua L. PlotkinMichelle DayD.

Cell-type–specific inhibition of the dendritic plateau potential in striatal spiny projection Neurons [2017] Kai Du Yu-Wei Wu J. Kotaleski et al.

电缆理论对时序性抑制的预测。|Synaptically driven state transitions in distal dendrites of striatal spiny neurons [2011] Joshua L. PlotkinMichelle DayD.

Cell-type–specific inhibition of the dendritic plateau potential in striatal spiny projection neurons [2017] Kai Du Yu-Wei Wu J. Kotaleski et al.

中棘神经元(medium spiny neurons, MSNs)在纹状体远端突触激活后,观察到了树突脉冲的形成,这些树突脉冲可能与大脑对特征的编码密切相关 (Plotkin et.al 2011) 。这些脉冲是由于突触输入特别是NMDA受体的激活和电压依赖性钙通道的作用,这些元素共同作用产生了再生性电位变化,即树突平台电压。这种现象与Du等人的精细神经元模型的结果高度一致(Du et.al 2017)。

Du等人在精细模型中发现,树突远端位置的抑制性输入对树突平台电压的影响与时间有很强的关联性。这种现象被称为“时序性抑制”。如果抑制性输入的时间与NMDA受体的激活非常接近,那么只会产生很小的分流效应(shunting effect);而如果时间上相差较大,则可能完全抑制掉整个树突平台电压。这种现象表明树突的活性反应对抑制性输入的时序非常敏感。之后斯坦福实验室通过在同一个树突上激活兴奋性和抑制性突触,验证了这种时序性抑制的效果

基于NMDA镁离子阻滞机制的模型预测。|Cell-type–specific inhibition of the dendritic plateau potential in striatal spiny projection neurons [2017] Kai DuYu-Wei WuJ. Kotaleski et al.

Timed Synaptic Inhibition Shapes NMDA Spikes, Influencing Local Dendritic Processing and Global I/O Properties of Cortical Neurons. [2017] Michael DoronG. ChindemiIdan Segev et al.

时序性抑制在皮层锥体神经元中同样存在。|Cell-type–specific inhibition of the dendritic plateau potential in striatal spiny projection neurons [2017] Kai DuYu-Wei WuJ. Kotaleski et al.

Timed Synaptic Inhibition Shapes NMDA Spikes, Influencing Local Dendritic Processing and Global I/O Properties of Cortical Neurons. [2017] Michael DoronG. ChindemiIdan Segev et al.

这一现象产生的机理是什么?传统上被认为主要是由于分流抑制(shunting inhibition),即抑制性输入通过增加膜电导,使得兴奋性输入引起的电位变化被削弱。然而,在精细神经元模型中发现,这一现象的产生与NMDA受体的镁离子阻滞(Mg²⁺ block)有关。具体来说,NMDA受体通道在镁离子阻滞下具有电压依赖性,当神经细胞的膜电位变得足够负时,镁离子会从NMDA受体的通道中移除,从而允许钙离子和其他离子流入神经元,引发树突平台电位的产生。这种过程使得树突的活性反应对时间上的抑制性输入非常敏感。模型中进一步发现,如果移除NMDA的镁离子阻滞(NMDA Mg²⁺ block),则时序性抑制现象就不会再出现。这意味着镁离子阻滞是时序性抑制产生的关键因素。

实验也验证了这一模型预测,当去掉镁离子阻滞时,时序性抑制的现象确实消失了。这进一步支持了在树突水平上,NMDA受体及其镁离子阻滞在时序性抑制中的关键作用,而不仅仅是简单的分流抑制机制。后来的研究在理论上证明了时序性抑制在皮层锥体神经元中同样存在。

3.1 与人工智能的关系

反向传播(backpropagation)是用于人工神经网络的主要训练方法,通过反馈连接来传播误差信号,从而更新权重,以提高网络性能。反向传播在机器学习中取得了显著的成功,但在生物学上实施具有挑战性,因为大脑中的反馈机制与人工网络的反馈机制并不完全相同。Timothy 等人提出了一种假设,即树突平台电压、前向传递、后向传递以及动作电位的反向传播,可能共同作用来形成一种类似反向传播的学习机制。文章提出了一种称为“神经梯度活动差异(NGRAD)”的框架,认为大脑可以通过反馈连接来计算有效的突触更新,这些更新类似于反向传播的误差信号。

梯度反向传播算法是人工神经网络的核心。|Backpropagation and the brain [2020] Timothy P. Lillicrap Adam SantoroGeoffrey Hinton et al.

大脑中学习算法的假设。|Backpropagation and the brain [2020] Timothy P. LillicrapAdam SantoroGeoffrey Hinton et al.

3.2 单个神经元有强大的计算能力和逻辑推理能力

Beniaguev等人在2021年发表于 Neuron 期刊的一项研究表明,单个精细建模的神经元可以具有相当于5到8层人工神经网络的计算能力。这意味着,单个生物神经元通过其复杂的多区室结构(multi-compartment dynamics),能够处理类似于多层人工网络的复杂输入和输出关系,具有强大的计算能力。经过梯度训练,一个精细神经元就可以做“异或”推理(XOR reasoning),展现了单个神经元上强大的逻辑推理能力。

虽然单个神经元具有非常复杂和强大的计算能力,但是当把这些单个神经元扩展到大规模网络时,研究者需要权衡模型的复杂性与网络的可扩展性。研究的未来方向是结合复杂的详细神经元模型和大规模的神经网络,引入新的特性和更复杂的行为,以更好地模拟生物大脑的功能。

单个神经元有强大的计算能力。|Single cortical neurons as deep artificial neural networks [2021] David Beniaguev

模型复杂性与规模的研究进展。|Single cortical neurons as deep artificial neural networks [2021] David Beniaguev

4.1 大脑精细模拟的核心挑战

精细神经元模拟目前面临计算效率低、硬件限制和工具链不足等多方面挑战。尽管如Blue Brain Project和Allen Institute等项目在推进大规模神经元模拟上取得了进展,但现有的计算平台和硬件能力远不能满足复杂的生物神经元模型的需求。这种局限类似于深度学习在2006年之前面临的瓶颈,未来可能需要开发基于GPU的计算平台以及专门的超算和芯片设计,以更好地支持神经科学领域的大规模模拟和计算。

目前大脑精细模拟的核心挑战。|Software for Brain Network Simulations: A Comparative Study [2017] Ruben A. Tikidji-Hamburyan Vikram Narayana Tarek A. El-Ghazawi et al.

当前主流的大脑模拟工具。|Software for Brain Network Simulations: A Comparative Study [2017] Ruben A. Tikidji-Hamburyan Vikram NarayanaTarek A. El-Ghazawi et al.

4.2 计算效率提升-传统方法

精细神经元模拟的瓶颈

电缆理论的数值方法

精细神经元模型在模拟时仿真速度慢,这与它模拟神经元的方式和底层的计算方法密切相关。精细神经元模型使用差分法进行电压迭代计算,这种方法计算复杂且需要处理大量的耦合关系,导致仿真需要逐步迭代多个区段,计算复杂性呈指数增长。

电缆理论在多区室神经元模型中通过数值方法计算,通过将树突和轴突分段,结合离散化的差分方法来模拟电信号在神经元内的传播。为了高效解决这种数值计算中的复杂耦合问题,可以使用海因斯矩阵,有助于将复杂的偏微分方程组转化为稀疏线性方程组,从而可以使用更高效的数值方法来求解。计算复杂度可以从O(N³)降低为O(2N)。

电缆理论中的海因斯矩阵

海因斯算法行与行之间会有依赖关系

海因斯方法是用来高效求解多区室神经元模型中的伪三对角矩阵的数值方法。由于神经元树突和轴突的分叉,矩阵中存在一些零散的非零元素,使得它不再是一个标准的三对角矩阵,而是“伪三对角矩阵”,利用这种矩阵的稀疏性,可以减少计算量。但是在使用高斯消元法消除的过程中,行与行之间会产生依赖关系,导致求解过程必须是串行的,无法实现高效的并行化。

4.3 计算效率提升-并行化方法

树突分层调度方法

GPUs显存上的优化

深度分层调度方法与传统方法的比较

为解决这个问题,Du等人提出了树突分层调度方法(Dendritic Hierarchical Scheduling)。该算法从最深的节点进行计算,该节点对其它节点的依赖程度最低。从数学上可以证明这种算法的效率是最高的。该算法既有海因斯算法同样的算法复杂度,又可以通过GPU进行并行运算。基于这个算法的分析发现,求解不同树突形态的神经元会有一个计算上界,在计算时最多16个线程就足够了,这在数学上把求解电缆理论方程的运算效率提高了10倍左右。

在实际操作时,对显存的优化至关重要。电缆理论中的区室(compartment)需要高效地按照一定类别存储在显存中,而不是随机排列,以最大化计算性能并减少存取延迟。

DHS+GPU的优化方法相较于传统的NEURON计算引擎在神经元仿真中有了明显的性能提升,相对于使用传统CPU的NEURON计算引擎,计算效率提高了高达1000倍;与当前的高效仿真引擎CoreNEURON相比,DHS+GPU的速度提高了约10倍。

小鼠大脑模拟

基于精细神经元的类脑模型

类脑模型的神经元激活

一方面,精细神经元模型可以用于大脑模拟,DHS方法极大的提高了大脑模拟的效率。Du等人用8块GPU模拟了小鼠基底核脑区的纹状体中5万个精细神经元,极大的降低了计算资源;另一方面,可以构建基于精细神经元的人工智能模型,解决深度学习任务。

利用对抗攻击测试类脑模型的鲁棒性

对抗攻击测试的效果

为了测试基于精细神经元的类脑模型的鲁棒性,Zhang等人给输入的图片添加对抗攻击噪声,发现其鲁棒性显著高于传统的人工神经网络模型。

模型鲁棒性可能由于树突的滤波作用

突触位置对模型鲁棒性的促进作用

基于精细神经元的类脑模型为什么鲁棒性会更好?作者实验发现,当前馈连接全部投到最远端时鲁棒性比全部投到胞体附近明显更强,表明输入对树突上的位置比较敏感,因此猜测这可能是由于树突的滤波作用。

top-down vs bottom-up?|Modeling Single-Neuron Dynamics and Computations: A Balance of Detail and Abstraction [2006] A. HerzT. GollischD. Jaeger et al.

The Diversity of Cortical Inhibitory Synapses [2016] Y. KubotaF. KarubeY. Kawaguchi et al.

大语言模型 vs 精细大脑模型? | Modeling Single-Neuron Dynamics and Computations: A Balance of Detail and Abstraction [2006] A. HerzT. GollischD. Jaeger et al.

The Diversity of Cortical Inhibitory Synapses [2016] Y. KubotaF. KarubeY. Kawaguchi et al.

目前认为构建未来通用人工智能的方式有两种:bottom-up和top-down。

Top-down是通过简化和抽象,将神经元的复杂生物细节逐渐简化为功能模块,直至形成非常简化的黑箱模型。深度学习模型在图像识别、语音识别、自然语言处理等领域取得了巨大成功,其性能甚至超过了人类。这表明,通过适当的抽象和简化,可以实现高度复杂的功能,类似于生物神经系统中的认知任务。这为top-down路径提供了一定的证据支持。但是这种简化模型与大脑神经元差别巨大,目前的研究手段无法从生物学或物理理论角度解释其智能行为的出现,其演化方向也是不可控的。

Bottom-up是通过精细地模拟神经元和它们之间的复杂交互,试图通过大量神经元的相互作用来涌现出智能。这种方法重视每一个生物细节,从基本的神经元行为,到树突、突触、复杂网络连接等,通过不断增加层次的细节来实现高层功能。这一路径认为复杂的拓扑结构及其多样的突触连接可能是智能形成的基础。智能并非通过逐步简化和抽象直接构建,而是通过许多低层次神经元和回路的相互作用而自然涌现出来的。

讲者认为通过精细大脑模型有可能实现基于人脑的通用智能。精细大脑模型与大语言模型的设计逻辑一样,形式上满足规模法则,都是数据驱动。精细神经元模型强大的计算能力和逻辑推理能力使得其拥有更大的潜力。但是想要实现基于精细大脑模型的人脑智能,面临着很多挑战。一方面需要高性能的计算框架对大脑进行模拟,另一方面需要高效的训练方法。

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问进入。

截止到12月25日 ”未来知识库”精选的100部前沿科技趋势报告

2024 美国众议院人工智能报告:指导原则、前瞻性建议和政策提案

未来今日研究所:2024 技术趋势报告 - 移动性,机器人与无人机篇

Deepmind:AI 加速科学创新发现的黄金时代报告

Continental 大陆集团:2024 未来出行趋势调研报告

埃森哲:未来生活趋势 2025

国际原子能机构 2024 聚变关键要素报告 - 聚变能发展的共同愿景

哈尔滨工业大学:2024 具身大模型关键技术与应用报告

爱思唯尔(Elsevier):洞察 2024:科研人员对人工智能的态度报告

李飞飞、谢赛宁新作「空间智能」 等探索多模态大模型性能

欧洲议会:2024 欧盟人工智能伦理指南:背景和实施

通往人工超智能的道路:超级对齐的全面综述

清华大学:理解世界还是预测未来?世界模型综合综述

Transformer 发明人最新论文:利用基础模型自动搜索人工生命

兰德公司:新兴技术监督框架发展的现状和未来趋势的技术监督报告

麦肯锡全球研究院:2024 年全球前沿动态图表呈现

兰德公司:新兴技术领域的全球态势综述

前瞻:2025 年人形机器人产业发展蓝皮书 - 人形机器人量产及商业化关键挑战

美国国家标准技术研究院(NIST):2024 年度美国制造业统计数据报告(英文版)

罗戈研究:2024 决策智能:值得关注的决策革命研究报告

美国航空航天专家委员会:2024 十字路口的 NASA 研究报告

中国电子技术标准化研究院 2024 扩展现实 XR 产业和标准化研究报告

GenAI 引领全球科技变革关注 AI 应用的持续探索

国家低空经济融创中心中国上市及新三板挂牌公司低空经济发展报告

2025 年计算机行业年度策略从 Infra 到 AgentAI 创新的无尽前沿

多模态可解释人工智能综述:过去、现在与未来

【斯坦福博士论文】探索自监督学习中对比学习的理论基础

《机器智能体的混合认知模型》最新 128 页

Open AI 管理 AI 智能体的实践

未来生命研究院 FLI2024 年 AI 安全指数报告 英文版

兰德公司 2024 人工智能项目失败的五大根本原因及其成功之道 - 避免 AI 的反模式 英文版

Linux 基金会 2024 去中心化与人工智能报告 英文版

脑机接口报告脑机接口机器人中的人机交换

联合国贸发会议 2024 年全球科技创新合作促发展研究报告 英文版

Linux 基金会 2024 年世界开源大会报告塑造人工智能安全和数字公共产品合作的未来 英文版

Gartner2025 年重要战略技术趋势报告 英文版

Fastdata 极数 2024 全球人工智能简史

中电科:低空航行系统白皮书,拥抱低空经济

迈向科学发现的生成式人工智能研究报告:进展、机遇与挑战

哈佛博士论文:构建深度学习的理论基础:实证研究方法

Science 论文:面对 “镜像生物” 的风险

镜面细菌技术报告:可行性和风险

Neurocomputing 不受限制地超越人类智能的人工智能可能性

166 页 - 麦肯锡:中国与世界 - 理解变化中的经济联系(完整版)

未来生命研究所:《2024 人工智能安全指数报告》

德勤:2025 技术趋势报告 空间计算、人工智能、IT 升级。

2024 世界智能产业大脑演化趋势报告(12 月上)公开版

联邦学习中的成员推断攻击与防御:综述

兰德公司 2024 人工智能和机器学习在太空领域感知中的应用 - 基于两项人工智能案例英文版

Wavestone2024 年法国工业 4.0 晴雨表市场趋势与经验反馈 英文版

Salesforce2024 年制造业趋势报告 - 来自全球 800 多位行业决策者对运营和数字化转型的洞察 英文版

MicrosoftAzure2024 推动应用创新的九大 AI 趋势报告

DeepMind:Gemini,一个高性能多模态模型家族分析报告

模仿、探索和自我提升:慢思维推理系统的复现报告

自我发现:大型语言模型自我组成推理结构

2025 年 101 项将 (或不会) 塑造未来的技术趋势白皮书

《自然杂志》2024 年 10 大科学人物推荐报告

量子位智库:2024 年度 AI 十大趋势报告

华为:鸿蒙 2030 愿景白皮书(更新版)

电子行业专题报告:2025 年万物 AI 面临的十大待解难题 - 241209

中国信通院《人工智能发展报告(2024 年)》

美国安全与新兴技术中心:《追踪美国人工智能并购案》报告

Nature 研究报告:AI 革命的数据正在枯竭,研究人员该怎么办?

NeurIPS 2024 论文:智能体不够聪明怎么办?让它像学徒一样持续学习

LangChain 人工智能代理(AI agent)现状报告

普华永道:2024 半导体行业状况报告发展趋势与驱动因素

觅途咨询:2024 全球人形机器人企业画像与能力评估报告

美国化学会 (ACS):2024 年纳米材料领域新兴趋势与研发进展报告

GWEC:2024 年全球风能报告英文版

Chainalysis:2024 年加密货币地理报告加密货币采用的区域趋势分析

2024 光刻机产业竞争格局国产替代空间及产业链相关公司分析报告

世界经济论坛:智能时代,各国对未来制造业和供应链的准备程度

兰德:《保护人工智能模型权重:防止盗窃和滥用前沿模型》-128 页报告

经合组织 成年人是否具备在不断变化的世界中生存所需的技能 199 页报告

医学应用中的可解释人工智能:综述

复旦最新《智能体模拟社会》综述

《全球导航卫星系统(GNSS)软件定义无线电:历史、当前发展和标准化工作》最新综述

《基础研究,致命影响:军事人工智能研究资助》报告

欧洲科学的未来 - 100 亿地平线研究计划

Nature:欧盟正在形成一项科学大型计划

Nature 欧洲科学的未来

欧盟科学 —— 下一个 1000 亿欧元

欧盟向世界呼吁 加入我们价值 1000 亿欧元的研究计划

DARPA 主动社会工程防御计划(ASED)《防止删除信息和捕捉有害行为者(PIRANHA)》技术报告

兰德《人工智能和机器学习用于太空域感知》72 页报告

构建通用机器人生成范式:基础设施、扩展性与策略学习(CMU 博士论文)

世界贸易组织 2024 智能贸易报告 AI 和贸易活动如何双向塑造 英文版

人工智能行业应用建设发展参考架构

波士顿咨询 2024 年欧洲天使投资状况报告 英文版

2024 美国制造业计划战略规划

【新书】大规模语言模型的隐私与安全

人工智能行业海外市场寻找 2025 爆款 AI 应用 - 241204

美国环保署 EPA2024 年版汽车趋势报告英文版

经济学人智库 EIU2025 年行业展望报告 6 大行业的挑战机遇与发展趋势 英文版

华为 2024 迈向智能世界系列工业网络全连接研究报告

华为迈向智能世界白皮书 2024 - 计算

华为迈向智能世界白皮书 2024 - 全光网络

华为迈向智能世界白皮书 2024 - 数据通信

华为迈向智能世界白皮书 2024 - 无线网络

安全牛 AI 时代深度伪造和合成媒体的安全威胁与对策 2024 版

2024 人形机器人在工业领域发展机遇行业壁垒及国产替代空间分析报告

《2024 年 AI 现状分析报告》2-1-3 页.zip

万物智能演化理论,智能科学基础理论的新探索 - newv2

世界经济论坛 智能时代的食物和水系统研究报告

生成式 AI 时代的深伪媒体生成与检测:综述与展望

科尔尼 2024 年全球人工智能评估 AIA 报告追求更高层次的成熟度规模化和影响力英文版

计算机行业专题报告 AI 操作系统时代已至 - 241201

Nature 人工智能距离人类水平智能有多近?

Nature 开放的人工智能系统实际上是封闭的

斯坦福《统计学与信息论》讲义,668 页 pdf

国家信息中心华为城市一张网 2.0 研究报告 2024 年

国际清算银行 2024 生成式 AI 的崛起对美国劳动力市场的影响分析报告 渗透度替代效应及对不平等状况英文版

大模型如何判决?从生成到判决:大型语言模型作为裁判的机遇与挑战

毕马威 2024 年全球半导体行业展望报告

MR 行业专题报告 AIMR 空间计算定义新一代超级个人终端 - 241119

DeepMind 36 页 AI4Science 报告:全球实验室被「AI 科学家」指数级接管

《人工智能和机器学习对网络安全的影响》最新 273 页

2024 量子计算与人工智能无声的革命报告

未来今日研究所:2024 技术趋势报告 - 广义计算篇

科睿唯安中国科学院 2024 研究前沿热度指数报告

文本到图像合成:十年回顾

《以人为中心的大型语言模型(LLM)研究综述》

经合组织 2024 年数字经济展望报告加强连通性创新与信任第二版

波士顿咨询 2024 全球经济体 AI 成熟度矩阵报告 英文版

理解世界还是预测未来?世界模型的综合综述

GoogleCloudCSA2024AI 与安全状况调研报告 英文版

英国制造商组织 MakeUK2024 英国工业战略愿景报告从概念到实施

花旗银行 CitiGPS2024 自然环境可持续发展新前沿研究报告

国际可再生能源署 IRENA2024 年全球气候行动报告

Cell: 物理学和化学 、人工智能知识领域的融合

智次方 2025 中国 5G 产业全景图谱报告

上下滑动查看更多

来源:人工智能学家

相关推荐