OpenAI员工疯狂暗示,内部已成功开发ASI?被曝训出GPT-5但雪藏

360影视 2025-01-18 02:49 2

摘要:OpenAI,有大事发生!最近各种爆料频出,比如OpenAI已经跨过「递归自我改进」临界点,o4、o5已经能自动化AI研发,甚至OpenAI已经研发出GPT-5?OpenAI员工如潮水般爆料,疯狂暗示内部已开发出ASI。

【导读】 OpenAI,有大事发生!最近各种爆料频出,比如OpenAI已经跨过「递归自我改进」临界点,o4、o5已经能自动化AI研发,甚至OpenAI已经研发出GPT-5?OpenAI员工如潮水般爆料,疯狂暗示内部已开发出ASI。
种种迹象表明,最近OpenAI似乎发生了什么大事。 AI研究员Gwern Branwen发布了一篇关于OpenAI o3、o4、o5的文章。

根据他的说法,OpenAI已经跨越了临界点,达到了「递归自我改进」的门槛——o4或o5能自动化AI研发,完成剩下的工作!

文章要点如下—— - OpenAI可能选择将其「o1-pro」模型保密,利用其计算资源来训练o3这类更高级的模型 类似于Anthorpic的策略 - OpenAI可能相信他们已经在AI发展方面取得了突破,正在走向ASI之路 - 目标是开发一种运行效率高的超人AI,类似于AlphaGo/Zero所实现的目标 - 推理时搜索最初可以提高性能,但最终会达到极限 甚至还出现了这样一种传言:OpenAI和Anthropic已经训练出了GPT-5级别的模型,但都选择了「雪藏」。 原因在于,模型虽能力强,但运营成本太高,用GPT-5蒸馏出GPT-4o、o1、o3这类模型,才更具性价比。 甚至,OpenAI安全研究员Stephen McAleer最近两周的推文,看起来简直跟短篇科幻小说一样—— 我有点怀念过去做AI研究的时候,那时我们还不知道如何创造超级智能。 在前沿实验室,许多研究人员都非常认真地对待AI短时间的影响,而实验室之外几乎没有人充分讨论其安全影响。 而现在控制超级智能已经是迫在眉睫的研究事项了。 我们该如何控制诡计多端的超级智能?即使拥有完美的监视器,难道它不会说服我们将其从沙箱中释放出来吗? 总之,越来越多OpenAI员工,都开始暗示他们已经在内部开发了ASI。 这是真的吗?还是CEO奥特曼「谜语人」的风格被底下员工学会了? 很多人觉得,这是OpenAI惯常的一种炒作手段。 但让人有点害怕的是,有些一两年前离开的人,其实表达过担忧。 莫非,我们真的已处于ASI的边缘? 超级智能(superintelligence)的「潘多拉魔盒」,真的被打开了?

OpenAI:「遥遥领先」

OpenAI的o1和o3模型,开启了新的扩展范式:在运行时对模型推理投入更多计算资源,可以稳定地提高模型性能。

如下面所示,o1的AIME准确率,随着测试时计算资源的对数增加而呈恒定增长。 OpenAI的o3模型延续了这一趋势,创造了破纪录的表现,具体成绩如下: 在Codeforces上得分2727,使其成为全球第175名最优秀的竞技编程者; 在FrontierMath上得分25%,该平台的「每个问题都需要数学家几个小时的工作」; 在GPQA上得分88%,其中70%的分数代表博士级别的科学知识; 在ARC-AGI上得分88%,而在困难的视觉推理问题上,平均Mechanical Turk人工任务工人的得分为75%。 根据OpenAI的说法,o系列模型的性能提升主要来自于增加思维链(Chain-of-Thought,CoT)的长度(以及其他技术,如思维树),并通过强化学习改进思维链(CoT)过程。 目前,运行o3在最大性能下非常昂贵,单个ARC-AGI任务的成本约为300美元,但推理成本正以每年约10倍的速度下降! Epoch AI的一项最新分析指出,前沿实验室在模型训练和推理上的花费可能相似。 因此,除非接近推理扩展的硬性限制,否则前沿实验室将继续大量投入资源优化模型推理,并且成本将继续下降。 就一般情况而言,推理扩展范式预计可能会持续下去,并且将是AGI安全性的一个关键考虑因素。 AI安全性影响 那么推理扩展范式对AI安全性的影响是什么呢?简而言之,AI安全研究人员Ryan Kidd博士认为: AGI时间表大体不变,但可能会提前一年。 对于前沿模型的部署,可能会减少其过度部署的影响,因为它们的部署成本将比预期高出约1000倍,这将减少来自高速或集体超级智能的近期风险。 思维链(CoT)的监督可能更有用,前提是禁止非语言的CoT,这对AI安全性有利。 更小的、运行成本更高的模型更容易被盗用,但除非非常富有,否则很难进行操作,这减少了单边主义诅咒的风险。 扩展可解释性更容易还是更难;尚不确定。 模型可能会更多地接受强化学习(RL),但这将主要是「基于过程」的,因此可能更安全,前提是禁止非语言的CoT。 出口管制可能需要调整,以应对专用推理硬件。 AGI时间表 o1和o3的发布,对AGI时间表的预测的影响并不大。 Metaculus的「强AGI」预测似乎因为o3的发布而提前了一年,预计在2031年中期实现;然而,自2023年3月以来,该预测一直在2031到2033年之间波动。 Manifold Market的「AGI何时到来?」也提前了一年,从2030年调整为2029年,但最近这一预测也在波动。 很有可能,这些预测平台已经在某种程度上考虑了推理计算扩展的影响,因为思维链并不是一项新技术,即使通过RL增强。 总体来说,Ryan Kidd认为他也没有比这些预测平台当前预测更好的见解。 部署问题 在《AI Could Defeat All Of Us Combined》中,Holden Karnofsky描述了一种模棱两可的风险威胁模型。 在此模型中,一群人类水平的AI,凭借更快的认知速度和更好的协调能力超过了人类,而非依赖于定性上的超级智能能力。 这个情景的前提是,「一旦第一个人类水平的AI系统被创造出来,创造它的人,可以利用创造它所需要的相同计算能力,运行数亿个副本,每个副本大约运行一年。」 如果第一个AGI的运行成本和o3-high的成本一样(约3000美元/任务),总成本至少要3000亿美元,那么这个威胁模型似乎就不那么可信了。 因此,Ryan Kidd博士对「部署问题」问题的担忧较小,即一旦经过昂贵的训练,短期模型就可以廉价地部署,从而产生巨大影响。 这在一定程度上减轻了他对「集体」或「高速」超级智能的担忧,同时略微提升了对「定性」超级智能的关注,至少对于第一代AGI系统而言。 监督思维链

如果模型的更多认知,是以人类可解释的思维链(CoT)形式嵌入,而非内部激活,这似乎是通过监督来促进AI安全性的好消息!

尽管CoT对模型推理的描述并不总是真实或准确,但这一点可能得到改进。

Ryan Kidd也对LLM辅助的红队成员持乐观态度,他们能够防止隐秘的阴谋,或者至少限制可能秘密实施的计划的复杂度,前提是有强有力的AI控制措施

从这个角度来看,推理计算扩展范式似乎非常有利于AI安全,前提是有足够的CoT监督。

不幸的是,像Meta的Coconut(「连续思维链」)这样的技术可能很快就会应用于前沿模型,连续推理可以不使用语言作为中介状态。

尽管这些技术可能带来性能上的优势,但它们可能会在AI安全性上带来巨大的隐患。

正如Marius Hobbhahn所说:「如果为了微小的性能提升,而牺牲了可读的CoT,那简直是在自毁前程。」 然而,考虑到用户看不到o1的CoT,尚不确定是否能知道非语言CoT被部署的可能性,除非通过对抗性攻击揭示这一点。

AGI来了

美国AI作家和研究员Gwern Branwen,则认为Ryan Kidd遗漏了一个重要方面:像o1这样的模型的主要目的之一不是将其部署,而是生成下一个模型的训练数据。

o1解决的每一个问题现在都是o3的一个训练数据点(例如,任何一个o1会话最终找到正确答案的例子,都来训练更精细的直觉)。

这意味着这里的扩展范式,可能最终看起来很像当前的训练时范式:大量的大型数据中心,在努力训练一个拥有最高智能的最终前沿模型,并以低搜索的方式使用,并且会被转化为更小更便宜的模型,用于那些低搜索或无搜索的用例。 对于这些大型数据中心来说,工作负载可能几乎完全与搜索相关(因为与实际的微调相比,推出模型的成本低廉且简单),但这对其他人来说并不重要;就像之前一样,所看到的基本是,使用高端GPU和大量电力,等待3到6个月,最终一个更智能的AI出现。 OpenAI部署了o1-pro,而不是将其保持为私有,并将计算资源投资于更多的o3训练等自举过程。 Gwern Branwen对此有点惊讶。 显然,类似的事情也发生在Anthropic和Claude-3.6-opus上——它并没有「失败」,他们只是选择将其保持为私有,并将其蒸馏成一个小而便宜、但又奇怪地聪明的Claude-3.6-sonnet。) OpenAI突破「临界点」 OpenAI的成员突然在Twitter上变得有些奇怪、甚至有些欣喜若狂,原因可能就是看到 从原始4o模型到o3(以及现在的状态)的改进 。 这就像观看AlphaGo在围棋中等国际排名:它一直在上升……上升……再上升…… 可能他们觉得自己「突破了」,终于跨过了临界点:从单纯的前沿AI工作,几乎每个人几年后都会复制的那种,跨越到起飞阶段——破解了智能的关键,以至o4或o5将能够自动化AI研发,并完成剩下的部分。 2024年11月,Altman表示: 我可以看到一条路径,我们正在做的工作会继续加速增长,过去三年取得的进展将继续在 未来三年、六年、九年或更长时间里继续下去 。 不久却又改口: 我们现在非常确信地知道如何构建传统意义上的AGI……我们开始将目标超越这一点,迈向真正意义上的超级智能。我们很喜欢我们目前的产品,但我们是为了美好的未来。通过超级智能,我们可以做任何事情。 而其他AI实验室却只能望洋兴叹:当超级智能研究能够自给自足时,根本无法获得所需的大型计算设备来竞争。 最终OpenAI可能吃下整个AI市场。 毕竟AlphaGo/Zero模型不仅远超人类,而且运行成本也非常低。仅仅搜索几步就能达到超人类的实力;即使是仅仅前向传递,已接近职业人类的水平! 如果看一下下文中的相关扩展曲线,会发现原因其实显而易见。

论文链接:https://arxiv.org/pdf/2104.03113 继续蒸馏 推理时的 搜索就像是一种刺激剂,能立即提升分数,但很快就会达到极限 。 很快,你必须使用更智能的模型来改善搜索本身,而不是做更多的搜索。 如果单纯的搜索能如此有效,那国际象棋在1960年代就能解决了. 而实际上,到1997年5月,计算机才击败了国际象棋世界冠军,但超过国际象棋大师的搜索速度并不难。 如果你想要写着「Hello World」的文本,一群在打字机上的猴子可能就足够了;但如果想要在宇宙毁灭之前,得到《哈姆雷特》的全文,你最好现在就开始去克隆莎士比亚。 幸运的是,如果你手头有需要的训练数据和模型,那可以用来创建一个更聪明的模型:聪明到可以写出媲美甚至超越莎士比亚的作品。 2024年12月20日,奥特曼强调: 在今天的噪声中,似乎有些消息被忽略了: 在编程任务中,o3-mini将超过o1的表现,而且成本还要少很多! 我预计这一趋势将持续下去,但也预见到为获得边际的更多性能而付出指数级增加的资金,这将变得非常奇怪。 因此,你可以花钱来改善模型在某些输出上的表现……但「你」可能是「AI 实验室」,你只是花钱去改善模型本身,而不仅仅是为了某个一般问题的临时输出。 这意味着外部人员可能永远看不到中间模型(就像围棋玩家无法看到AlphaZero训练过程中第三步的随机检查点)。 而且,如果「部署成本是现在的1000倍」成立,这也是不部署的一个理由。 为什么要浪费这些计算资源来服务外部客户,而不继续训练,将其蒸馏回去,最终部署一个成本为100倍、然后10倍、1倍,甚至低于1倍的更优模型呢? 因此,一旦考虑到所有的二阶效应和新工作流,搜索/测试时间范式可能会看起来出奇地熟悉。

来源:东窗史谈

相关推荐