摘要:随着深度神经网络在诸多领域取得重要性突破,其对数据和算力的巨大需求也日益凸显。尤其是在物联网(IoT)和边缘设备中,传统神经网络难以在有限样本下快速适应新任务,而重新训练模型又需要高昂的计算和能耗成本。相比之下,人脑能够通过极少样本(甚至单样本)进行快速学习与
随着深度神经网络在诸多领域取得重要性突破,其对数据和算力的巨大需求也日益凸显。尤其是在物联网(IoT)和边缘设备中,传统神经网络难以在有限样本下快速适应新任务,而重新训练模型又需要高昂的计算和能耗成本。相比之下,人脑能够通过极少样本(甚至单样本)进行快速学习与泛化,与现有的计算模式存在显著的差别,这激发了研究者对类脑高效学习算法的探索。记忆增强神经网络(MANNs)通过引入关联存储器机制,有望高效解决这一挑战,但在传统冯·诺依曼架构中,数据搜索与距离计算的大量数据迁移却极大地限制了计算速度和能量效率。
近日,清华大学电子系杨华中教授团队的李学清副教授与新加坡国立大学的龚萧副教授团队合作,首次提出并通过实验验证了一种基于反转型铁电电容存储器(FCM)的电荷域2FCM内容寻址存储器(CAM),可支持记忆增强神经网络的高效加速。该设计开创性地采用差分铁电电容来存储数据,通过电荷域操作可直接输出与汉明距离成线性关系的稳定电压信号,相比传统非易失CAM,具有显著的输出线性度高、抗干扰能力强、搜索能效高、集成密度高等一系列优势。
图1.基于FCM的内容寻址存储器概览
研究团队在绝缘体上硅(SOI)平台上成功制备了16×16 2FCM CAM阵列,并演示了16通道并行的16位汉明距离计算。实验测量结果证明,16位汉明距离计算输出的线性度高达R²=0.9983,且误差仅0.126LSB,这极大提高了计算的可靠性,并简化了感应电路设计。2FCM CAM在Omniglot数据集上的单次学习任务中实现了97.5%的识别准确率,且在45nm工艺节点下,单元面积仅为0.024μm2,单次搜索操作的能耗低至0.005 fJ/bit,显著优于已有先进的电流域CAM,在搜索能效方面实现了40倍以上的提升。这些指标凸显了2FCM CAM在低功耗、高可靠、高密度等方面的优势,为未来低功耗、高精度、高密度的存内搜索应用奠定了坚实基础。尤其是在边缘计算、物联网、生物序列分析、实时图像识别等场景中,2FCM CAM有望成为推动下一代智能硬件的关键技术。
图2.研究团队制备的16×16 2FCM CAM阵列和实测结果
研究成果以“面向高可靠高能效单次学习的铁电电容存储器的电荷域内容寻址存储器”(Charge-domain content addressable memory based on ferroelectric capacitive memory for reliable and energy-efficient one-shot learning)为题,于8月28日发表于《自然·通讯》(Nature Communications)。
新加坡国立大学电气与计算机工程系的周作普博士和清华大学电子系2021级博士生钟宏涛为论文共同第一作者,新加坡国立大学电气与计算机工程系副教授龚萧与清华大学电子系副教授李学清为论文共同通讯作者。研究得到国家自然科学基金等的支持。
论文链接:
供稿:电子系
来源:清华大学一点号