DeepSeek赢麻了,首个推理模型就超越OpenAI o1

摘要:今年早些时候,国内科技公司DeepSeek(深度求索)因V2模型一举成名,成名的原因简单粗暴,主打高性价比。在当时,DeepSeek V2的API定价约等于谷歌的七分之一,GPT-4 Turbo的七十分之一。

今年早些时候,国内科技公司DeepSeek(深度求索)因V2模型一举成名,成名的原因简单粗暴,主打高性价比。在当时,DeepSeek V2的API定价约等于谷歌的七分之一,GPT-4 Turbo的七十分之一。

时隔几个月,这家被业界冠以“AI界拼多多”之称的公司,迅速推出首个推理模型「DeepSeek-R1预览版」。该模型一经推出,便在AIME以及全球顶级编程竞赛(codeforces)等权威评测中,大幅超越了GPT4o,甚至o1-preview,一夜之间轰动全球。

时间倒退回今年5月前后,在大模型领域,国内各大厂牌内卷最凶猛,创立于2023年4月的DeepSeek一战成名,毫无疑问是当时的“黑马”。但是,人们提起DeepSeek总是带着“高性价比”的标签,不自觉让大家忽视他们强大的技术力。

如今,推理模型DeepSeek-R1预览版在AIME和MATH这两个关键基准测试上超越了OpenAI o1,大家终于不只以“性价比”来衡量DeepSeek。

这里简单解释一下,AIME在美国数学竞赛(AMC)中难度等级最高,所以常被用来测试不同模型解决推理问题的性能。DeepSeek-R1预览版在解决这些复杂数学问题时拥有极强的“拆解能力”,能够将复杂任务分解为更小的步骤并逐一执行,从而提高其准确性。

同时,DeepSeek-R1预览版的思维过程是完全透明的,允许用户验证不同阶段得出的答案。

值得注意的是,DeepSeek-R1预览版与OpenAI o1模型类似,会根据问题的复杂度,在回答前“思考”一会儿,有时甚至长达数十秒。

就在该预览版发布后不久,DeepSeek便表示计划开源DeepSeek-R1并发布API,果然,这就是开源精神。在中国所有大模型创业公司中,DeepSeek是为数不多未做to C应用的公司,而且坚持开源,深受社区欢迎。

此次一战成名,全世界不少人对DeepSeek这家中国公司产生兴趣。虽然DeepSeek是打响“价格战”后让大家熟知,但深入了解后发现,DeepSeek不仅没有烧钱补贴,甚至有利润。

在DeepSeek-R1预览版后,低调的“技术大牛”形象深入人心,让我们更加期待DeepSeek(深度求索)未来继续带来更多惊艳的AI模型。

来源:热点科技一点号

相关推荐