摘要:近日,香港中文大学、中国科学院物理研究所和哈尔滨工业大学(深圳)的研究人员合作研发了一种基于集成量子点激光器的仿生型光子梯级神经元,并构建了一个无需反馈环路的高速储备池计算系统,实现了10 Gbaud的信号处理速度,且具有达到100 Gbaud处理速度的潜力。
近日,香港中文大学、中国科学院物理研究所和哈尔滨工业大学(深圳)的研究人员合作研发了一种基于集成量子点激光器的仿生型光子梯级神经元,并构建了一个无需反馈环路的高速储备池计算系统,实现了10 Gbaud的信号处理速度,且具有达到100 Gbaud处理速度的潜力。该研究工作以「Integrated laser graded neuron enabling high-speed reservoir computing without a feedback loop」为题发表在Optica杂志上。香港中文大学黄超然教授和中国科学院物理研究所王子昊教授为本文共同通讯作者。香港中文大学博士研究生聂仪昆、中国科学院物理研究所博士研究生杨礴和香港中文大学博士研究生王东亮为本文的共同第一作者。本文合作作者包括中国科学院物理研究所王霆教授和哈尔滨工业大学(深圳)王嘉威教授。
研究背景
光子神经形态计算是一种极具前景的下一代高速、低能耗计算范式。作为提升计算能力的关键组件,光子神经元在速度和效率上面临着重大瓶颈。目前,被广泛研究的光子脉冲神经元因具有不应期,其信号处理速度受到限制。并且大部分激光器脉冲神经元采用光注入方式,因此需要额外的激光光源和光电调制器,使得整体系统架构变得复杂。此外,在许多基于物理储备层节点的储备池计算系统中,为了提升系统性能通常需引入时间延迟反馈环路,这会增加系统的复杂度并限制信号处理速度。
为解决以上问题,香港中文大学、中国科学院物理研究所和哈尔滨工业大学(深圳)的研究人员合作研发了一种基于集成量子点激光器的仿生型光子梯级神经元,并构建了一个无需反馈环路的高速储备池计算系统,完成了图像识别和序列预测等机器学习任务。该激光器模拟了生物学梯级神经元的响应模式,避免了由不应期带来的信号处理速度限制,实现了10 Gbaud的信号处理速度,且具有达到100 Gbaud处理速度的潜力。该激光器梯级神经元采用电注入方式,无需额外的光源和调制器,且应用于储备池计算时无需反馈环路,使得整体系统架构更为简洁、稳定且低能耗。
技术难点与挑战
神经形态计算是一种模拟生物神经元的功能和架构的计算范式。单个生物神经元是一个具有信息处理能力、信息传递能力和记忆功能的强大的计算单元。因此,设计一种能够真正模拟生物神经元强大的计算功能的光子神经形态处理器至关重要。
在生物体中,存在着两种不同的神经元:脉冲神经元和梯级神经元。脉冲神经元通过时空离散的脉冲传递信息,使得信号处理更加高效节能。然而,脉冲神经元具有不应期,即:脉冲神经元对某一输入刺激信号发生反应后,在一定时间内,即使再给予刺激,也不会做出响应(图1a,左侧)。不应期的存在限制了脉冲神经元的信息处理速度,同时,神经生物学研究表明,当信号被转换为「有或无」的二值化脉冲序列时,信息很容易丢失。目前,绝大部分光子激光器神经元都是模拟了这种脉冲神经元。
另一类生物神经元被称为梯级神经元。与脉冲神经元不同,梯级神经元没有不应期,而对连续输入的刺激信号表现出梯级响应(图1a,右侧)。由于没有不应期的限制,梯级神经元的响应速率显著提高,从而大幅加快了信息处理和传输的速度。同时,由于具有连续而非二值化的编码方式,梯级神经元能够有效保留和传递信息,实现高可靠性和高精度的信号处理。因此,将光子梯级神经元应用于人工智能将为高速神经形态计算开辟新的机遇。然而,目前缺少高速光子激光器梯级神经元的实际实现。
图1 | 生物神经元和基于集成量子点激光器的光子梯级神经元。(a)生物脉冲神经元(左侧)和生物梯级神经元(右侧)。(b)激光器梯级神经元显微镜下的照片。(c)激光器梯级神经元的横截面扫描电镜照片。(d)包含大规模集成激光器神经元的晶圆照片。
本文提出了一种基于集成量子点激光器的光子梯级神经元(图1b-d),并展示了其在高速储备池计算中的应用。通过将射频信号采用电注入的方式施加到激光器的可饱和吸收体区域,我们成功避免了由不应期带来的脉冲响应速率限制。我们的激光器梯级神经元实现了10 Gbaud的信号处理速度,比生物神经元和电子人工神经元分别快9个数量级、6个数量级。许多基于物理储备层节点的储备池系统需要依赖反馈环路或多个物理节点来完成机器学习任务,这使得这些系统更加复杂且运行速度较慢。然而,由于具有强大的记忆效应和出色的信息处理能力,我们的单个激光器梯级神经元就可以表现得像一个小型神经网络。因此,即使没有额外的复杂连接和反馈环路,单个激光器梯级神经元本身也能够以高性能执行机器学习任务。
研究亮点
1. 实验验证量子点激光器中的类梯级神经元特性
在常见的激光器脉冲神经元中,输入刺激信号被注入到激光器的增益部分。在这种情况下,激光器的增益会受到信号调制。由于增益区域的恢复时间比可饱和吸收体区域的恢复时间慢得多,因此会观察到不应期现象。为了避免不应期带来的速度限制,我们人为地将射频信号注入到饱和吸收体区域(图2a),而非增益区域。这种方法使我们能够观察到激光器的梯级增强响应,并避免了不应期带来的速率限制。
图2 | 实验设置与激光器梯级神经元的演示。(a)实验设置。(b)阈值特性曲线。(c)实验验证激光器梯级神经元记忆时间。(d1-d3)实验验证阈值特性。(e1-e3)实验验证时间积分特性。(f1-f3)实验验证梯级响应特性。
我们通过实验验证了量子点激光器中存在以下类生物梯级神经元的性质:(1)阈值激发特性(图2d1-d3):只有当输入的刺激信号超过阈值时,激光器才会产生响应脉冲,否则激光器将保持静息状态;(2)时间积分特性(图2e1-e3):激光器能够在特定的时间窗口内将相邻的输入脉冲的能量积累起来,并产生一个输出脉冲响应,即使输入脉冲序列中的每个单独的脉冲都低于阈值,激光器也可以通过时间积分特性触发输出脉冲响应;(3)梯级响应特性(图2f1-f3):当激光器在初始阶段已被激发过后,继续给其输入刺激信号,激光器将产生逐步增强的梯级响应。此外,我们还通过实验验证了该激光器梯级神经元的记忆持续时间大概为1ns(图2c)。
2. 激光器梯级神经元赋能高速储备池计算
储备池计算是一种强大且高效的计算框架,非常适合处理时序信号。一个储备池计算系统由输入层、储备层和读出层组成(图3a)。在储备层中,至关重要的组成部分是非线性节点,它们之间的连接是随机且固定的,从而避免了对储备层的训练。只有读出层需要训练,并且可以通过简单且高效的方法(例如线性回归)实现。由于具备丰富的类神经元非线性动态特性和高速处理信号的能力,我们的激光器梯级神经元非常适合应用于高速储备池计算中。
图3 | 传统储备池计算架构与基于激光器梯级神经元的储备池计算的原理。(a)传统储备池计算架构。(b)基于激光器神经元的储备池计算的原理。(c)激光器储备层中虚拟节点之间的连接。
在许多物理储备池系统中,通常会依赖时间延迟反馈环路来增加系统中的虚拟节点数量,以此构建非线性节点之间的连接,来提升系统性能,但这样不仅会增加系统的复杂度,还会限制系统的运行速度。得益于激光器梯级神经元的记忆效应和非线性动态特性,我们构建了一个无需反馈环路的精简的储备池计算系统(图3b-c)。在输入层中,输入信号被编码为注入激光器梯级神经元的电脉冲。在储备层中,当每个虚拟节点的持续时间小于激光器的记忆持续时间时,激光器储备层能够将先前的输入信号储存为隐状态,该隐状态和新输入的数据共同决定激光器储备层的输出。先前虚拟节点带来的影响会保留在系统中,并随时间逐渐衰减。通过时间复用的方式,虚拟节点之间的互联关系得以建立。在读出层中,我们从每个虚拟节点中采样一个点作为输出。因具备梯级响应特性,激光器储备层能够生成连续时间输出。与脉冲神经元的二值输出相比,这种连续时间输出携带更多信息、展现出更丰富的计算表达能力,在训练最优读出层时更为有效。
我们用两个机器学习任务验证了基于激光器梯级神经元的储备池系统的模式识别能力。第一个任务是MIT-BIH心律不齐检测(图4a-c)。在此任务中,每个心跳由50个数据点组成,每个数据点被编码为100ps的电脉冲输入激光器梯级神经元中,最终心律不齐检测的正确率为98.4%。第二个任务是MNIST手写数字图像分类(图4d-f)。在此任务中,每张手写数字图像为12 x 12的黑白图片,将像素点展平后依次输入激光器梯级神经元中,最终MNIST图像分类的正确率为92.3%。
图4 | 实验验证模式识别任务。(a-c)MIT-BIH心律不齐检测任务。(a)MIT-BIH心律不齐数据集中的两个样本。(b)心跳输入激光器梯级神经元的方式。(c)MIT-BIH心律不齐检测任务的混淆矩阵。(d-f)MNIST手写数字图像分类任务。(d)MNIST数据集的前处理。(e)MNIST数字图像输入激光器梯级神经元的方式。(f)MNIST图像分类任务的混淆矩阵。
我们还用Mackey-Glass任务来验证了基于激光器梯级神经元的储备池系统的序列预测能力。在此任务中,我们的目标是用最新的50步来预测未来的第i步(图5b)。我们通过多变量输入的方法(图5a),将原本的Mackey-Glass序列扩展为多个不同幅值的序列,依次输入激光器梯级神经元中。通过多变量输入的方法,我们可以增加储备池系统中虚拟节点的数量,以达到更好的预测效果。在预测未来的第一步时,我们的系统达到的归一化均方根误差(NRMSE)为0.081(图5e-f);在预测未来的第30步时,我们的系统仍能保持很低的误差,此时NRMSE为0.108(图5g-h)。
图5 | 实验验证Mackey-Glass时间序列预测任务。(a)多变量输入方法示意图。(b)一个训练样本和其对应的目标示意图。(c)NRMSE与变量数量的关系。(d)NRMSE与预测的未来步数的关系。(e-f)预测未来的第一步时,在时间域和相空间中的实验结果。(g-h)预测未来的第30步时,在时间域和相空间中的实验结果。
总结与展望
综上所述,本文展示了一种基于集成量子点激光器的仿生型光子梯级神经元,并将其用作激光器储备层,实现了高速的储备池计算,信息处理速度达到10 Gbaud。不同于一般的需要引入反馈环路的物理储备池系统,通过利用激光器梯级神经元的非线性动态特性和记忆效应,我们构建了一种无需时间延迟反馈环路的储备池计算系统,这种设计不仅简化了系统架构,还避免了时间延迟反馈环路带来的信号处理速度的限制。该储备池计算系统在心率不齐检测、MNIST手写数字图像分类和Mackey-Glass时间序列预测任务中表现出良好性能。未来,通过利用更加高速的激光器,系统的信号处理速度有望被提升至100 Gbaud。此外,我们可以将多个激光器梯级神经元级联在一起,形成深层储备池结构,来进一步提高系统的性能。
论文信息:
Yikun Nie, Bo Yang, Dongliang Wang, Ting Wang, Jiawei Wang, Zihao Wang, and Chaoran Huang, "Integrated laser graded neuron enabling high-speed reservoir computing without a feedback loop," Optica11, 1690-1699 (2024)
--中国光学
来源:Future远见