摘要:DeepSeek 背后的母公司深度求索成立于 2023 年 7 月 17 日,有着量化私募幻方基金的雄厚支持。幻方基金凭借强大的资金实力,为深度求索在 AI 研发道路上提供了坚实后盾,使得深度求索能够心无旁骛地朝着 AI 的前沿领域进军,无需过多担忧盈利问题,
DeepSeek的出现,不仅引发了全球 AI 爱好者的热议,更让整个科技圈为之震动。
DeepSeek 的崛起之路
DeepSeek 背后的母公司深度求索成立于 2023 年 7 月 17 日,有着量化私募幻方基金的雄厚支持。幻方基金凭借强大的资金实力,为深度求索在 AI 研发道路上提供了坚实后盾,使得深度求索能够心无旁骛地朝着 AI 的前沿领域进军,无需过多担忧盈利问题,专注探索 AI 的无限可能。
2024 年 1 月 5 日,深度求索发布首个 AI 大模型 DeepSeek LLM,正式踏入 AI 大模型赛道。随后,2024 年 5 月 7 日推出的 DeepSeek-V2 更是大放异彩,一经发布便开源。
在中文综合能力(AlignBench)的开源模型评测中,它力压群雄,与 GPT-4-Turbo、文心 4.0 等闭源模型处于同一梯队;英文综合能力(MT-Bench)也不逊色,与最强开源模型 LLaMA3-70B 相当,还超越了最强的混合专家(MoE)开源模型 Mixtral8x22B,在知识、数学、推理、编程等多个领域的榜单中名列前茅。关键是,其 API 价格仅为 GPT-4o 的 2.7%,这一极具竞争力的价格直接引发了国内大模型市场的价格战,字节、阿里、百度、腾讯等大厂纷纷跟进降价。
2024 年 12 月 26 日发布的 DeepSeek-V3 同样开源,在多项评测中表现卓越,在知识类任务、长文本理解、编程和数学运算等方面,性能接近甚至超越国际顶尖闭源模型,如 GPT-4o 和 Claude-3.5-Sonnet,而其训练成本仅 557.6 万美元,远低于其他大厂。
2025 年 1 月 20 日,推理模型 DeepSeek-R1 发布并开源,效果媲美 OpenAI o1,API 价格却只有 OpenAI o1 的 3.7% ,再次震惊海外。2025 年 1 月 27 日,DeepSeek 登顶苹果中美两区 App 免费榜,超越长期霸榜的 GPT,这一成绩直接导致投资者信心动摇,英伟达股票大跌,DeepSeek 就此火遍全网,成为各大媒体竞相报道的焦点。
DeepSeek 开源的战略考量
DeepSeek 选择开源技术,并非偶然之举,而是基于多方面的深思熟虑。
推动行业生态发展:开源能够吸引全球范围内的开发者、研究者和企业参与技术迭代。通过开源,DeepSeek 建立起技术标准和生态体系,就像 Meta 的 LLaMA 系列一样,让更多应用基于自身框架开发,间接扩大了市场占有率。社区成员的反馈和优化,能加速模型的进化,提升 DeepSeek 在 AI 领域的影响力和话语权。
技术验证与信任建立:在 AI 领域,安全和伦理备受关注。开源模型允许外界审查代码和算法,增强了透明度和信任感。公开技术细节能减少用户疑虑,证明技术的可靠性。
商业模式的平衡:“开源 + 商业” 的模式在 AI 行业已被验证可行,如 Hugging Face、Mistral 等。DeepSeek 的开源版本可作为 “基础版” 吸引用户和开发者,而商业版或企业服务,如高性能的 API、定制化解决方案等,则提供增值服务。开源降低了企业使用门槛,推动技术普及,扩大了潜在客户群体。
社区协作加速创新:开源社区汇聚了集体智慧,能快速发现模型漏洞、优化性能并拓展新功能。对于 DeepSeek 而言,这相当于借助外部资源免费提升技术实力。
应对竞争与政策环境:全球 AI 竞赛激烈,开源可避免重复研发,让行业资源聚焦前沿探索。同时,符合中国推动开源创新的政策导向,有助于获得政府或行业支持。
长期技术影响力:开源模型若成为学术研究或行业应用的基准工具,将持续提升 DeepSeek 的品牌技术声誉,吸引更多人才和合作伙伴,形成良性循环。
DeepSeek 引发的连锁反应
DeepSeek 的火爆在行业内引发了一系列连锁反应。微软、英伟达、亚马逊等云计算平台纷纷接入 DeepSeek,显示出行业对其技术实力的认可。而 OpenAI 也感受到了压力,在洽谈新一轮 400 亿美元巨额融资、估值 3000 亿美元的同时,正式上线了 OpenAI o3-mini 系列模型。
OpenAI o3-mini 系列模型主打快速推理,o3-mini(high)擅长编码和逻辑且支持联网搜索,虽然暂不支持多模态功能,但训练数据经过严格筛选,安全合规表现有所增强。付费用户方面,ChatGPT Plus、Team 和 Pro 用户已可使用,企业版也在一周后开放访问,Plus 和 Team 用户的每日消息限制从 o1-mini 的 50 条提升到 150 条,Pro 用户可无限次访问 o3-mini 以及 o3-mini-high。此外,OpenAI 首次向免费用户开放推理模型使用权限,在 ChatGPT 消息输入框下方选择「Reason」按钮即可使用。o3-mini 还集成了搜索功能,能实时获取最新答案并附带网页链接,方便用户深度调研。
不过,目前该搜索功能还是原型,官方表示未来会持续完善并扩展到更多推理模型。经测试,o3-mini 平均响应时间为 7.7 秒,较 o1-mini 的 10.16 秒快了 24%,在专家评测中,56% 的评测者更倾向于选择 o3-mini 的回答,处理复杂实际问题时的重大错误率降低了 39%。即便如此,o3-mini 仍存在一些不足,如无法答对 “9.11 和 9.9 哪个大?”“strawberry 里面有多少个 r?” 这类简单问题,而 DeepSeek-R1 等推理模型则可以答对。
DeepSeek-R1 使用技巧
很多人使用 DeepSeek-R1 时觉得没有达到预期效果,这主要是因为没有掌握正确的使用方法。DeepSeek-R1 是推理模型,与通用模型 DeepSeek-V3 不同,它擅长数学、代码、逻辑类问题,写论文、作文、小说等长文任务更适合用 V3。在使用 R1 时,如果没有足够的上下文背景资料,或者没有用自然语言充分交流,它可能会插入离谱的专业术语。
因此,最好先与 DeepSeek-V3 进行多轮交流后,再切换成 R1 深度思考模式;或者一次性把问题相关的所有数据都提供给 R1,这样它就能更好地完成任务,这一方适用于所有 AI。
在提问方法上,不能再使用传统喂给通用模型的一长串结构化提示词,而是要明确目标,把它当作能力强大但需要明确需求的 “员工”。比如,抛弃 “你是一个谁谁谁,现在我的任务是什么什么,你要按照 1……2……3…… 来给我执行” 这样的写法,而是简单表达 “你是谁 + 背景信息 + 你的目标”。背景信息提供得越多,R1 就越能理解需求,从而更好地完成任务。例如,想让 R1 解释大模型中的 RL 用法,加上 “我是一个小学生” 这样的背景信息,R1 给出的解释会更加通俗易懂。
DeepSeek-R1 实力测评
相比其他推理模型,DeepSeek-R1 的文案功底相当出色。在数学推理题上大家实力相当的情况下,文笔成为体现 AI 大模型实力的重要因素。
以模仿滕王阁序风格写一篇蛇年春节的文章为例,DeepSeek-R1 创作的《癸巳迎春序》展现出了极高的文学水准,而其他推理模型,如 o1、o3-mini 等,以及智谱清言 - GLM-Zero、月之暗面 - kimi-K1、阿里通义千问 - QwQ-32b、Gemini-2.0-flash-thinking-exp 等,与 DeepSeek-R1 相比都存在一定差距。
DeepSeek 的未来挑战
尽管 DeepSeek 取得了耀眼成绩,但它的未来处境却充满挑战。作为初创 AI 公司,深度求索团队仅有 100 多人,面临着国内阿里、百度、腾讯等大厂和美国硅谷大厂的挖角风险,若核心人才流失,将对公司发展产生重大影响。
同时,它还要应对来自硅谷的反击,如持续的 DDoS 攻击、OpenAI 的蒸馏指控、Anthropic 的 CEO 要求加强制裁力度,以及美国政府可能的调查,深度求索很可能被列入实体名单。此外,同行竞争也十分激烈,存在大规模恶意挖角、抹黑、恶意举报合规性、测试安全性和合规性等行为。而且,网络上还有各种黑粉抹黑,拿开源模型训练中常见的 “回答自己是 GPT” 等问题来质疑 DeepSeek 套壳 GPT,舆论风险难以把控。
来源:RPA小达人