摘要:据DeepSeek介绍,DeepSeek-R1在Codeforces、GPQA Diamond、MATH-500、MMLU、SWE-bench Verified等测试中,得分与o1正式版接近,部分测试中得分还超过o1正式版。该模型在后训练阶段大规模使用了强化学
DeepSeek上周发布开源的DeepSeek-R1,并称该模型性能对标OpenAI o1正式版之后,海外AI业界对该模型的讨论还在持续。
热议的焦点在于,当开源模型能力赶上最新的闭源模型,可能改变大模型的竞争格局。
据DeepSeek介绍,DeepSeek-R1在Codeforces、GPQA Diamond、MATH-500、MMLU、SWE-bench Verified等测试中,得分与o1正式版接近,部分测试中得分还超过o1正式版。该模型在后训练阶段大规模使用了强化学习技术,在只有极少标注数据的情况下提升了模型推理能力。
AI业界人士已经在讨论开源的影响。Meta首席AI科学家Yann Lecun表示,DeepSeek-R1面世与其说意味着中国公司在AI领域正在超越美国公司,不如说意味着开源大模型正在超越闭源。“DeepSeek会从开放研究和开源中获利,可能会类似Meta的PyTorch和Llama。他们提出新想法,并在别人的工作基础上实现。因为他们的工作是公开和开源的,每个人都能从中获利,这就是开放研究和开源的力量。”Yann Lecun表示。
“我们生活在这样一个时代,一家非美国公司正在让OpenAI的初衷得以延续,即做真正开放、为所有人赋能的前沿研究。”英伟达高级研究科学家Jim Fan表示,DeepSeek-R1可能是第一个展示了RL(强化学习)飞轮可发挥作用且能带来持续增长的OSS(开源软件)项目。加利福尼亚大学伯克利分校教授Alex Dimakis则称,DeepSeek似乎是奔赴OpenAI最初使命的“最佳人选”,其他公司需要迎头赶上。
硅谷风投A16Z创始人Marc Andreessen也发表评论称,DeepSeek-R1是他见过的最令人惊叹且令人印象深刻的一个突破,作为开源的模型,它的面世给世界带来了一份礼物。
对比也走开源路线的Meta,新浪微博新技术研发负责人张俊林表示,DeepSeek和阿里在开源方面已经领先Meta,国内的开源风气越来越好,这是被DeepSeek和阿里带动起来的。得益于DeepSeek开源出的众多R1版本模型,业界可以低成本快速复制出逻辑推理能力更强大的模型。
用户可以在自己的服务器上或使用云算力部署开源模型,并用自己的数据微调大模型,使用开源模型在数据安全方面可能优于调用闭源大模型的API接口,且用户不需要向大模型厂商支付API调用费用。在开源大模型能力超过或比肩闭源大模型能力时,开源对闭源将造成冲击。
DeepSeep-R1推出前,开源领域的标杆是Meta的Llama系列模型,MiniMax副总裁刘华就坦言此前接受第一财经记者采访时,比开源模型更好是一个最基本的门槛,如果基础模型做不到这一点就可以转而做AI应用了。在国内做商业化一个最基本的前提就是比Meta的Llama模型更好,“否则别人可以用Llama,为什么花钱用你的模型?这很现实。”
DeepSeek是幻方量化旗下的AI公司,创立于2023年,幻方量化创始人梁文峰在量化投资和高性能计算领域有深厚背景。该公司走开源、性价比路线,也被冠以“AI界拼多多”的名号。去年5月,DeepSeek发布DeepSeek-V2,价格是GPT-4-Turbo的近百分之一,打响了大模型价格战的先声。此次发布的DeepSeek-R1也提供了API调用方式,API输入(缓存命中)、输出定价分别为每百万tokens1云、6元,低于o1的55元、438元。去年12月,DeepSeek还发布了大模型DeepSeek-V3,因该模型“2048个GPU、2个月、近600万美元”的极低训练预算受到关注。
不过,从最新消息看,DeepSeek的产品更新并未改变海外巨头向大模型投入巨额资金、大举建设算力基础设施的做法。近日OpenAI、甲骨文和软银宣布将成立一家合资企业“星际之门计划”,计划未来四年投资高达5000亿美元用于建设AI相关基础设施,该计划得到了刚上任的美国总统特朗普的力挺。
当地时间1月24日,Meta CEO扎克伯格则表示,为了实现公司在AI领域的目标,公司正在建设一个2吉瓦以上的数据中心,占地面积“能够覆盖纽约曼哈顿的很大一部分”,公司预期到今年年底拥有130万块GPU,今年的资本支出将达到600亿~650亿美元的规模。
来源:第一财经