K1.5多模态模型追平满血OpenAI o1,这次硅谷也坐不住了

360影视 2025-01-22 17:46 2

摘要:距离国产大模型做考研数学题“过线”刚过两个月,月之暗面在春节前一周,又扔出了一个分量十足的“王炸”——这一次,他们拿出了能媲美Open AI 满血版 o1(Full Version,而非 preview)的K1.5多模态模型,在文字和视觉两大领域实现了“超英赶

距离国产大模型做考研数学题“过线”刚过两个月,月之暗面在春节前一周,又扔出了一个分量十足的“王炸”——这一次,他们拿出了能媲美Open AI 满血版 o1(Full Version,而非 preview)的K1.5多模态模型,在文字和视觉两大领域实现了“超英赶美”。

Kimi官方刚一发布,X网友的反应速度比想象中要快很多。无论是一衣带水的日本、大洋彼岸的美国,甚至富得流油的阿拉伯,他们无不惊艳于Kimi模型推理能力的进展,以及多模态能力的提升。

这些感叹,是对中国AI事业进展最好的鼓励。

再看发布时间,DeepSeek-R1的上架时间还要略早一些。但就模态多样性来看,K1.5是目前OpenAI之外,唯一一个实现o1正式版多模态推理的大模型。其含金量不言而喻。

在更直接的性能实现方面,kimi k1.5的测试报告显示,在short-CoT 模式下,k1.5已经大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先度达到 550%;

long-CoT 模式下,Kimi k1.5 的数学、代码、多模态推理能力,与目前第一梯队的OpenAI o1 满血版相比,也不遑多让。

相较以往的闭源,Kimi还首次发布了训练报告《Kimi k1.5:借助大语言模型实现强化学习的 Scaling》

从Chatgpt横空出世至今,中国AI厂商大多数时间里都在摸着OpenAI的石头过河。但从K1.5等国产大模型开始,我们大可发现,以往以欧美为中心的AI行业世界线。已经悄然发生变动。

01 中国AI厂商的“源神”时刻

近三个月,毫无疑问是月之暗面技术成果的集中收获期。

去年11月,月之暗面发布了k0-math 数学模型、12月发布 k1 视觉思考模型,这是第三个月在K系列强化学习模型的重磅升级。

相比国内厂商和用户的“沸腾”,国外,尤其是硅谷专业人士的意见或许更能直接说明问题。

首先是OpenAI等一线厂商,在AGI探索方面逐渐停滞。面对外界谣言,OpenAI的CEO奥特曼直接发推辟谣,否认已经实现了AGI通用人工智能。同时下个月也不会部署AGI。对于众多从业者和相关厂商而言,既是预期上的打击,同样也给了产品追逐的机会。

与之形成对比的,则是面对月之暗面和Deepseek的最新推理模型成果,众多海外AI大V对此则相当兴奋。英伟达大佬Jim Fan当即发推感叹说,R1不止是开放了模型,技术的共享也非常重要。

根据他的对比,虽然Kimi和DeepSeek的论文的重点都在比较类似的发现,比如:

不需要像 MCTS 那样复杂的树搜索。只需将思维轨迹线性化,然后进行传统的自回归预测即可;

不需要另一个昂贵的模型副本的价值函数;

无需密集奖励建模。尽可能依赖事实和最终结果。

但二者仍然有比较明显的差异。如

DeepSeek 采用AlphaZero 方法 - 纯粹通过 RL 引导,无需人工输入,即“冷启动”。

Kimi 采用 AlphaGo-Master 方法:通过即时设计的 CoT 跟踪进行轻度 SFT 预热。

毫不夸张地说,起码在短链思维链,也就是短模型领域,K1.5地领先度是断崖式的,已经很大程度超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%。

可以看到,除了多模态的视觉能力稍有弱项,其他方面几乎与OpenAI处于同一梯队甚至隐隐压过一头,对其他国产友商已经明显拉开了差距。

此外,如果从全球前沿大模型数学竞赛和编程竞赛基准测试来看,K1.5延续了此前K0-math的优异性能,处于全球第一梯队。

02 K1.5的技术突破之路

值得一提的是,以往月之暗面的技术发布,都是以闭源产品的形式,本次K1.5,破天荒地将技术报告和训练细节也一并放出(地址:https://github.com/MoonshotAI/kimi-k1.5)

在月之暗面看来,“AGI 之旅才刚刚开始。我们想让更多技术人才了解我们在做的事情,加入我们一起做到更多。”

透过这份技术力拉满的报告,我们可以一窥国产厂商在推理模型领域,如何实现对国际大厂的赶超。

从目前放出的报告来看,最大的技术亮点之一,无疑是“Long2Short”训练方案。

这里涉及到两个关键理念,长上下文 scaling 和改进的策略优化。

具体而言,他们先利用最大可扩展到128K的上下文窗口,使得模型学会长链条思维。同时使用 partial rollout——即通过重用大量以前的轨迹来采样新的轨迹,避免从头重新生成新轨迹的成本,以此提高训练效率

有基于此,他们将原本“长模型”的成果和参数,与小而高效的“短模型”进行合并,再针对短模型进行额外的强化学习微调。

这样做的理由是,尽管长链推理(long-CoT)模型表现优异,但在测试时消耗的标记数量比标准短链推理(short-CoT)大模型更多。

同时,他们推导出了一个具有 long-CoT 的强化学习公式,并采用在线镜像下降法的变体来实现稳健的策略优化。通过有效的采样策略、长度惩罚和数据配方的优化,他们进一步改进了该算法。

此外,他们还用到了诸如最短拒绝采样和DPO等方式,以在有限的测试token预算下,最大程度提升模型性能。

研究者观察到,模型在回答相同问题时生成的响应长度存在较大差异。基于此,他们设计了最短拒绝采样(Shortest Rejection Sampling)方法。该方法对同一个问题采样 n 次(实验中,n=8),并选择最短的正确响应进行监督微调。

DPO与最短拒绝采样类似,团队人员利用 Long CoT 模型生成多个响应样本。并选择最短的正确解决方案作为正样本,而较长的响应则被视为负样本,包括错误的较长响应和正确的较长响应。这些正负样本对构成了用于 DPO 训练的成对偏好数据。

以目前的这套方案,可以在最大化保留长模型推理能力的前提下,有效释放短模型的高效推理和部署优势,规避长模型“精简模型后能力减弱”的问题。

测试也能表明,使用“Long2Short”训练方案之后,K1.5训练模型的效率提升十分明显。(越靠右上效率越高)。

03 结语

回望思考模型的技术路线,最早涉足该领域的OpenAI,分别在去年9月、5月推出了GPT-4o、o1。它们分别代表了多模态理解和强化学习两个不同路线。

对比过去两年,国内厂商发力追赶的速度已经今非昔比,Kimi的后来居上已经足够说明一些问题,在一些细分领域,中国AI如今已经追平了与国外的差距,站在同一条起跑线上,其后的发展,定义权或许已经不在OpenAI手中。

短短一个季度,Kimi就从单纯的“会算”变成了“会看”,并在以肉眼可见的速度集齐多模态,且隐隐有成为长板的趋势。

据月之暗面官微信息,2025 年,Kimi 会继续沿着路线图,加速升级 k 系列强化学习模型,带来更多模态、更多领域的能力和更强的通用能力。

让我们拭目以待。

来源:新浪财经

相关推荐