摘要:JEPA(Joint Embedding Predictive Architecture,联合嵌入预测架构)是我最喜欢的自监督学习元架构,适用于处理连续数据,如图像、视频和音频。
JEPA(Joint Embedding Predictive Architecture,联合嵌入预测架构)是我最喜欢的自监督学习元架构,适用于处理连续数据,如图像、视频和音频。
此外LeCun 称 需要澄清的是,JEPA不是Transformer的替代品。事实上,许多JEPA系统都使用了Transformer模块。JEPA是自回归生成架构(如大语言模型,无论是否使用Transformer)的替代方案。
如在V-JEPA中,网络不是自回归的。它使用了两个Transformer架构,一个用于两个编码器,另一个用于预测器。
世界模型LeCun愿景的基础部分是“世界模型”概念,即内部表示世界如何运作。他认为,给模型提供世界的上下文可以改善其结果。
“人类、动物和智能系统使用世界模型的想法可以追溯到心理学以及工程领域如控制和机器人学的几十年前。”
自监督学习LeCun提出了一种模块化、可配置的架构,用于自主智能,强调开发自监督学习方法,使AI无需大量标注数据就能学习这些世界模型。
下面是自主智能系统架构的详细组件视图:
JEPA 是开发能像人类一样理解和互动的AI的核心元素。它包含了上述关键元素,使系统能够处理不确定性并忽略无关细节,同时保持预测所需的关键信息。
它基于以下元素:
有趣的是,多个JEPA可以组合成多步/循环JEPA,或堆叠成层次化JEPA,以在多个抽象层次和时间尺度上进行预测。
根据JEPA架构,Meta AI研究人员与Yann LeCun共同发布了几个专门的模型。它们是什么?
图像联合嵌入预测架构 (I-JEPA) – 图像的JepaI-JEPA 于2023年6月提出,是基于JEPA的第一个模型。
I-JEPA是一个非生成性的自监督学习框架,设计用于处理图像。它通过屏蔽图像的一部分并尝试预测这些屏蔽部分来工作:
MC-JEPA (运动-内容联合嵌入预测架构) – 多任务JEPAMC-JEPA 是另一个JEPA变体,设计用于同时解释视频数据:动态元素(运动)和静态细节(内容),使用共享编码器。它于2023年7月提出。
MC-JEPA 是一个更全面、更强大的视觉表示模型,可用于现实世界中的计算机视觉应用,如自动驾驶、视频监控和活动识别。
视频联合嵌入预测架构 (V-JEPA) – 视频的JEPAV-JEPA 旨在增强AI对视频内容的理解,这在I-JEPA发布后被标记为一个重要的未来方向。
V-JEPA由两个主要组件组成:
编码器:将输入视频帧转换为高维空间,其中相似特征更靠近。编码器捕捉视频中的重要视觉线索。
预测器:利用编码特征的一个部分来预测另一部分的特征。这种预测基于学习视频中的时间和空间变换,有助于理解运动和随时间的变化。
V-JEPA的设计使其能够以类似于人类学习的方式从视频中学习——观察和预测视觉世界,而不需要显式标注。模型从无监督视频数据到各种视觉任务的泛化能力,使其成为推进机器理解和互动动态视觉环境的强大工具。
2024年3月发表的最新论文“学习和利用视觉表示学习中的世界模型[6]”引入了图像世界模型 (IWM) 的概念,并探讨了如何将JEPA架构推广到更广泛的扰动(如颜色抖动、模糊)中,而不仅仅是屏蔽。
Image 8
研究探讨了两种类型的世界模型:
不变模型:识别和保持不同场景中的稳定、不变特征
等变模型:适应输入数据的变化,保持发生的关系和变换
研究发现,通过利用这些世界模型,机器可以更准确地预测和调整视觉变化。这导致了更具弹性和适应性的系统开发。该方法挑战了传统的AI方法,提供了一种在不需要直接监督的情况下提高机器学习模型有效性的新途径。
原始模型1.JEPA首次提议:Yann LeCun关于让AI系统像人类和动物一样学习和推理的愿景[7]
2.I-JEPA: 从图像中进行自监督学习的联合嵌入预测架构[8]
3.MC-JEPA: 用于自监督学习运动和内容特征的联合嵌入预测架构[9]
4.V-JEPA: 迈向高级机器智能的下一步[10]
5. 推广JEPA: 视觉表示学习中的学习和利用世界模型[11]
Yann LeCun的演讲慕尼黑演讲(2023年9月29日)[12]
哈佛演讲(2024年3月28日)[13]
受JEPA启发的模型我们还为你整理了一份基于JEPA架构的相关模型清单。它们根据应用领域进行分组:
音频和语音应用A-JEPA[14]:专注于音频数据,使用掩模建模原则以提高音频和语音分类任务中的上下文语义理解。
探索用于通用音频表示学习的联合嵌入预测架构中的设计选择[15]:分析自监督音频表示学习中的掩模策略和样本时长。
视觉和空间数据应用S-JEA[16]:通过堆叠联合嵌入架构中的层次语义表示,增强视觉表示学习。
DMT-JEPA[17]:聚焦于局部语义理解的图像建模,适用于分类、目标检测和分割。
JEP-KD[18]:将视觉语音识别模型与音频特征对齐,提高视觉语音识别的性能。
Point-JEPA[19]:应用于点云数据,增强空间数据集的效率和表示学习。
Signal-JEPA[20]:专注于EEG信号处理,提高跨数据集的迁移和分类能力。
图表和动态数据应用Graph-JEPA[21]:第一个用于图表的联合嵌入架构,使用双曲坐标预测子图表示。
ST-JEMA[22]:增强从fMRI数据中学习动态功能连接,专注于高层次语义表示。
时间序列和遥感应用LaT-PFN[23]:结合时间序列预测和联合嵌入架构,利用相关系列进行稳健的上下文学习。
时间序列JEPA[24]:通过传感器数据中的时空相关性优化有限容量网络的远程控制。
预测梯度更优[25]:利用自监督学习进行SAR自动目标识别,利用梯度特征进行自动目标识别。
评估和方法学研究LiDAR: 在联合嵌入自监督学习架构中的线性探测性能[26]:引入一种评价联合嵌入自监督学习架构中表示的方法,专注于线性探测性能。
[1]
合作能力: https://www.pnas.org/doi/abs/10.1073/pnas.1101765108?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[2]
演讲1: https://x.com/TheTuringPost/status/1781835268196307296?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[3]
演讲2: https://x.com/TheTuringPost/status/1709190072715886892?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[4]
看不见的猩猩研究: https://journals.sagepub.com/doi/10.1068/p281059?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[5]
无意识盲视: http://www.scholarpedia.org/article/Inattentional_blindness?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[6]
学习和利用视觉表示学习中的世界模型: https://arxiv.org/abs/2403.00504?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[7]
JEPA首次提议:Yann LeCun关于让AI系统像人类和动物一样学习和推理的愿景: https://ai.meta.com/blog/yann-lecun-advances-in-ai-research/?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[8]
I-JEPA: 从图像中进行自监督学习的联合嵌入预测架构: https://arxiv.org/abs/2301.08243?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[9]
MC-JEPA: 用于自监督学习运动和内容特征的联合嵌入预测架构: https://arxiv.org/abs/2307.12698?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[10]
V-JEPA: 迈向高级机器智能的下一步: https://ai.meta.com/blog/v-jepa-yann-lecun-ai-model-video-joint-embedding-predictive-architecture/?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[11]
推广JEPA: 视觉表示学习中的学习和利用世界模型: https://arxiv.org/abs/2403.00504?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[12]
慕尼黑演讲(2023年9月29日): https://x.com/TheTuringPost/status/1709190072715886892?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[13]
哈佛演讲(2024年3月28日): https://x.com/TheTuringPost/status/1781835268196307296?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[14]
A-JEPA: https://arxiv.org/abs/2311.15830v3?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[15]
探索用于通用音频表示学习的联合嵌入预测架构中的设计选择: https://arxiv.org/abs/2405.08679?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[16]
S-JEA: https://arxiv.org/abs/2305.11701?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[17]
DMT-JEPA: https://arxiv.org/abs/2405.17995?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[18]
JEP-KD: https://arxiv.org/abs/2403.18843?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[19]
Point-JEPA: https://arxiv.org/abs/2404.16432?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[20]
Signal-JEPA: https://arxiv.org/abs/2403.11772?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[21]
Graph-JEPA: https://arxiv.org/abs/2309.16014?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[22]
ST-JEMA: https://arxiv.org/abs/2403.06432?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[23]
LaT-PFN: https://arxiv.org/abs/2405.10093?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[24]
时间序列JEPA: https://arxiv.org/abs/2406.04853?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[25]
预测梯度更优: https://arxiv.org/abs/2311.15153?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
[26]
LiDAR: 在联合嵌入自监督学习架构中的线性探测性能: https://arxiv.org/abs/2312.04000?utm_source=www.turingpost.com&utm_medium=referral&utm_campaign=topic-4-what-is-jepa
阅读最新前沿科技研究报告,欢迎访问欧米伽研究所的“未来知识库”
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。
来源:人工智能学家