摘要:在人工智能行业蓬勃发展的当下,模型之间的竞争与争议不断涌现。近日,中国大模型 DeepSeek 被 OpenAI 和 Anthropic 暗指依赖蒸馏技术,陷入抄袭风波。不过,StabilityAI 创始人 Emad Mostaque 却站出来为 DeepSe
在人工智能行业蓬勃发展的当下,模型之间的竞争与争议不断涌现。近日,中国大模型 DeepSeek 被 OpenAI 和 Anthropic 暗指依赖蒸馏技术,陷入抄袭风波。不过,StabilityAI 创始人 Emad Mostaque 却站出来为 DeepSeek 仗义执言,引发了行业内外的广泛关注。
Emad Mostaque 出生于 1983 年,拥有牛津大学数学和计算机科学学位。他的职业生涯丰富多彩,曾担任对冲基金经理,参与原油交易并为政府提供中东事务和伊斯兰极端主义方面的建议。在新冠疫情期间,他还领导利用大数据辅助政府决策。2020 年,他创立了 StabilityAI,致力于推动开源 AI 技术的发展,旗下的 Stable Diffusion 更是在生成式 AI 领域掀起了一场革命。他始终倡导开源模式,认为这能促进 AI 技术的创新和普及,让更多人受益于 AI 技术的发展。
OpenAI 和 Anthropic 虽未直接点名,但明指 DeepSeek 在模型发展过程中依赖蒸馏技术,暗指其存在不正当竞争和抄袭行为。蒸馏技术是一种通过训练小型模型模仿大型模型行为的技术,在 AI 领域应用广泛。然而,OpenAI 和 Anthropic 的此番质疑,却让 DeepSeek 陷入了舆论的漩涡中心。这一质疑不仅对 DeepSeek 的声誉造成了冲击,也引发了行业内对于模型创新和知识产权保护的激烈讨论。
Emad Mostaque,这位 Stable Diffusion 背后的男人,作为全球最大开源 AI 社区 StabilityAI 的创始人,在 AI 领域拥有极高的声誉和深厚的专业知识。面对 DeepSeek 遭受的质疑,他迅速做出回应。Emad 强调,那些指责 DeepSeek 全靠 OpenAI 蒸馏的言论,简直是对强化学习的侮辱。
他指出,DeepSeek 论文里的 R1-Zero 模型堪称关键证据。该模型的训练模式如同围棋 AI 的进化历程,AlphaGo Zero 通过自我对弈超越人类,MuZero 无需规则自学成才,而 R1-Zero 则通过生成专属合成数据闭环训练,数据越练越强,根本不需要借鉴其他模型。Emad 在视频中激情回应:“R1 模型就像 AlphaGo 一样自己和自己下棋,根本不需要偷师!那些说抄袭的人,怕是没见过强化学习的暴走模式吧?”
对于 “模型输出含 OpenAI 痕迹” 的指控,Emad 给出了一个形象的比喻:“这就好比说人类吃了转基因玉米就会变成玉米!现在全网都是 AI 生成内容,模型训练时吃到点 OpenAI 数据残渣再正常不过。” 他还进一步指出,现在许多模型在训练时,由于数据来源广泛,难免会混入其他模型的数据,比如 Llama 和 Gemini,有时候它们也会在输出中体现出 OpenAI 的影子,因为训练数据里早就混进了 GPT 的基因。
Emad 还提供了更为有力的反驳证据 —— 思维链。他指出,OpenAI 最新 o1 模型根本不会展示推理过程,而 DeepSeek 的 R1 和 Gemini Flash 思维版都在努力优化思维链,不断提升模型的推理和解决问题的能力。“想要偷师?你连解题步骤都看不到!”Emad 的这一观点,直接击中了质疑者的要害,从技术核心层面为 DeepSeek 的创新性提供了支撑。
此次事件不仅仅是对 DeepSeek 的一次考验,更是开源生态与闭源巨头之间的话语权争夺。Emad Mostaque 所代表的开源阵营,强调开放、共享和创新,认为通过全球科研人员的共同努力,可以推动 AI 技术的快速发展。而 OpenAI 和 Anthropic 等闭源巨头,虽然在技术研发上投入巨大,但由于其闭源的特性,限制了技术的传播和共享。
历史经验表明,开放的技术生态往往更具活力和创新力。在 AI 领域,开源技术能够吸引全球开发者的参与,加速技术的迭代和优化。这场争论或许也是 AI 进化路径的终极路线对决,未来 AI 行业究竟是走向更加开放的开源模式,还是继续由闭源巨头主导,值得人们持续关注。
随着 AI 技术的不断发展,类似的争议或许还会不断出现。但无论如何,创新始终是推动行业发展的核心动力。只有通过不断的创新和探索,才能让 AI 技术更好地服务于人类社会,为解决各种复杂问题提供更加智能的解决方案 。
来源:人工智能学家