从 AGI 到 Superintelligence(超级智能):智能大爆炸

360影视 2025-01-09 06:40 3

摘要:人工智能的发展并不会止步于人类水平。数以亿计的通用人工智能(AGI)能够自动化AI研究,将十年的算法进步(超过5个OOM)压缩到一年内。我们将迅速从人类水平跃升到远超人类的超级智能AI系统。超级智能的力量和潜在危险都将是巨大的。

今天继续翻译整理《SITUATIONAL AWARENESS》。
前两期内容包括:

SITUATIONAL AWARENESS: The Decade Ahead从 GPT-4 到 AGI:OOMs 计算量的指数增长

本期主题:
II. From AGI to Superintelligence: The Intelligence Explosion

人工智能的发展并不会止步于人类水平。数以亿计的通用人工智能(AGI)能够自动化AI研究,将十年的算法进步(超过5个OOM)压缩到一年内。我们将迅速从人类水平跃升到远超人类的超级智能AI系统。超级智能的力量和潜在危险都将是巨大的。

OOM = order of magnitude/数量级,10x = 1数量级。

I.J. Good 在1965年曾写道:

“假设超智能机器被定义为能够远远超过任何聪明人类的所有智力活动的机器。因为设计机器本身就是这些智力活动之一,因此一台超智能机器可以设计出更好的机器;如此一来,毫无疑问会发生‘智能爆炸’,而人类的智能将被远远抛在身后。因此,第一台超智能机器将是人类最后需要创造的发明。” Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultrAIntelligent machine could design even better machines; there would then unquestionably be an ‘intelligence explosion,’ and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make.

这段话奠定了关于智能爆炸和超级智能潜力的基础理论。

在大众想象中,冷战时期的恐惧主要源于洛斯阿拉莫斯实验室的原子弹发明。然而,单单“原子弹”或许被高估了。从“原子弹”到“氢弹”的跃迁也同样重要。

在东京空袭中,数百架轰炸机投下数千吨常规炸弹,对城市造成巨大破坏。几个月后,“小男孩”原子弹在广岛投放,释放出类似的破坏力,但仅需一枚装置。七年后,Teller 的氢弹再次将爆炸威力提升了千倍以上:单颗氢弹的威力超过了整个二战中所有投下的炸弹之和。

与之相似,从AGI到超级智能的飞跃亦是如此。

AlphaGo 是如何从人类水平跃升到超人水平的?起初,它通过学习顶尖人类棋局的历史数据达到专家水平。然而,它的突破来自于与自身对弈:这一过程产生了超乎人类想象的创意与复杂棋步——这是人类永远不会设计出的策略。

这不仅是一个里程碑,更是一个隐喻:从 AGI 到超级智能可能遵循类似的路径。

在之前的讨论中,我们探讨了通向 AGI 的路径。一旦 AGI 实现,下一步的进化将更加迅速:可能只需再一次、两次,甚至三次的迭代,AI 就会从 AGI 跃升到超级智能,成为远超人类的存在。

它的能力差距可能与以下情形相似:

人类相较于小学生的智力优势:我们不仅仅更聪明,还拥有更复杂的认知与思考能力。超级智能相较于人类的智力:它可能在定性上完全不同,能够处理我们难以理解的复杂问题。

AI 进步的速度已经很快,但一旦 AI 开始自动化自身的研发,进展速度可能会超出我们的预期。AI 研究的突破,往往并非复杂的概念,而是“直接且可操作的创新”:

添加归一化(LayerNorm/BatchNorm)。使用残差连接(Residual Connections)。修复实现中的错误(Kaplan → Chinchilla 缩放法则)。

假设:

GPT-4 到 AGI 的跃迁可能在 4 年内完成。再经过 4-8 年,超级智能的诞生可能成为现实。

然而,这个过程可能更快:

一旦 AGI 出现,我们不仅会有一个 AGI,而是数以百万计的 AGI 实体。现有的推理 GPU 集群可以支持成千上万的 AGI 并行运行。未来,这个数量可能扩大到 1亿个“人类等价体”。每个“人类等价体”将以至少 10倍于人类的速度工作。

这些 AGI 即使不能走路或泡咖啡,但它们可以在计算机上进行机器学习研究。相比目前顶尖 AI 实验室的数百位研究员,AGI 的规模可以是现状的 10万倍

递归自我改进曾是科幻小说中的设想,但它的基本逻辑并不需要复杂的假设。AGI 不需要构建新的科学框架,只需将当前算法进步的趋势加速即可。例如:

当前 AI 算法的进步速度约为 每年 0.5 OOM。如果数百万 AGI 同步工作,它们可以迅速实现重大突破,将速度成倍提高。

自动化 AI 研究将可能将人类十年的算法进步压缩到一年甚至更短——这一预测已属保守估计。这意味着:

超过 5个数量级(OOM)的算法进步。类似于从 GPT-2 到 GPT-4 的飞跃,但这次是在 AGI 的基础上。这种质的飞跃将类似于从学前班儿童到聪明高中生的智力提升,而 AI 系统起点已是顶尖 AI 研究员或工程师的水平。瓶颈与可突破性

瓶颈具体问题潜在突破结果计算资源的限制算力不足,无法同时支持大规模实验和推理工作。- 优化实验设计,避免无效计算
- 集中资源于高价值实验
- 利用更小规模实验探索突破点
- 算法优化(如 Chinchilla 缩放法则)提高效率
- 自动化研究员以更高效方式分配资源- 计算资源的有效利用可实现 10 倍以上效率提升,即使算力不足也能推动显著进展。不完全自动化与长尾问题自动化的初期阶段可能只能完成 70%-90% 的任务,人类研究员依然是瓶颈。- 不断优化模型架构与算法,逐步消除“最后 10%”的任务限制
- 通过半自动化“辅助手段”加速研究效率,逐步减少人类干预需求- 自动化研究员从“原型阶段”到完全自动化可能需要 1-2 年 的额外时间,但智能爆炸仍然会发生。算法进步的固有限制算法效率可能存在上限,进一步突破变得困难。- 当前算法架构仍然相对初级,可探索更多优化可能
- 从生物系统中获得灵感(如脑神经优化方案)
- 新型模型架构和训练方法可能推动新的跃迁- 假设目前存在上限,但仍有 5 个数量级的提升空间,算法进步的趋势短期内不会停止。思想获取难度增加“低垂果实”被摘尽后,新发现变得更困难,仅能维持当前的进步速度。- 自动化研究员共享知识,整体规模扩大 百万倍
- “去解锁”更多潜在的低垂果实,通过平行探索找到未被发现的领域
- 经验和直觉积累超越人类- 自动化研究员的规模效应和超人类速度可克服这一瓶颈,实现更快进展。收益递减随着算法改进变得更难,智能爆炸可能仅限于初期的快速进展,随后递减。- 初期大幅扩展(从数百研究员到数百万研究员)至少保证数个数量级的突破
- 自动化研究员初期足以克服递减效应
- 目标锁定于多领域协同进步(不仅限于 ML)- 智能爆炸的时间窗口可能不会无限持续,但 足够实现超级智能。

尽管存在多个可能的瓶颈,但它们似乎不足以显著减缓超级智能的到来。因此,智能爆炸可能远快于我们的想象。

到本世纪末,AI 系统可能在以下方面具备不可想象的定量超越

速度:思维速度比人类快数个数量级,可在数周内完成相当于人类数十亿年才能完成的创新。规模:通过数亿 GPU 构建的庞大算力支持,可创建数十亿个超级智能体。知识:阅读所有领域的科学文献,综合并扩展每一领域的知识。专注:全天候 24/7 全速运行,不受疲劳和分心的限制。创造力:提出超越人类理解的全新解决方案,例如 AlphaGo 中的“第 37 手”。

更重要的是,超级智能在定性上会超越人类:

创新能力:在多个领域提出人类无法想象的全新解决方案。代码突破与利用:发现人类系统中细微的逻辑漏洞,并生成复杂到人类无法理解的代码。高级问题解决:轻松解决人类需数十年攻克的难题,就像人类探索牛顿力学,而超级智能已在量子力学中翱翔。

要想直观感受这种超乎想象的情景,不妨看看一些 YouTube 上的视频游戏速通视频,比如这个 “20 秒通关《我的世界》” 的案例。

20 秒通关《我的世界》——如果你完全看不懂视频在做什么,请放心,你并不孤单;即使是大多数普通玩家也完全无法理解其中的操作。

智能爆炸最初局限于 AI 自身的研究与开发。随着超级智能的能力扩展,它将推动以下领域的全面变革:

AI 能力全面爆发:解决复杂领域的自动化问题,实现任何认知工作的全自动化。机器人革命:机器人领域的突破(主要是算法问题)将实现全自动化工厂。从人工操作到全自主机器人群体运行的生产模式转变。科学与技术飞跃:将人类百年的研发压缩到数年完成。实现从神经科学到半导体的突破性进展,推动新技术全面落地。工业与经济大爆发:经济增长速度从每年 2% 提升到 30% 或更高,甚至实现每年多次翻倍。类似工业革命般的生产方式变革,但速度和影响力将更为剧烈。
军事优势:提供全新且不可阻挡的武器技术,形成压倒性军事力量。政治和社会权力:控制超级智能的实体可能主导全球经济、军事甚至政府。历史类比与紧迫性

超级智能的出现类似核技术发展的早期阶段:

初期质疑:智能爆炸的可能性就像当年核裂变链式反应刚被提出时,被认为是天方夜谭。突破性进展:一旦关键点被突破,超级智能可能在几年内成为现实。紧迫行动:如同爱因斯坦和西拉德推动核技术安全研究,今天需要具备远见的人积极推动超级智能的风险管理。

一旦超级智能出现,其力量将难以估量:

智力与行为:超级智能将具备我们无法理解的创造性和复杂行为,甚至可能形成一个由数十亿实体组成的小型文明。研发领域的革命:在机器学习之外,超级智能将推动其他科学和技术领域的爆炸性进步。它可能在几年内攻克机器人技术的难题,并带来前所未有的工业革命。军事和破坏性力量:超级智能可能提供决定性的军事优势。但同时也会释放难以想象的破坏力,或许超越任何现有人类理解范围的灾难。

超级智能的出现将成为人类历史上最剧烈和最不稳定的时刻之一。这不仅是科技革命的顶点,更是人类文明在力量与风险之间的平衡之战。我们可能会迎来:

前所未有的繁荣:科学、技术和工业的飞跃可能创造出一个全新的黄金时代。潜在的毁灭:如果无法正确管理,这些系统的力量可能对人类构成致命威胁。

来源:ChatGPT扫地僧

相关推荐