DeepSeek测算:算力、性能、成本等

360影视 2025-02-01 00:06 2

摘要:SemiAnalysis新出的一篇分析报告,对于deepSeek的分析,包括中国在成本、真实训练成本、封闭模型利润率影响方面的领先地位 ——H100 价格飙升、补贴推理定价、出口管制、多头潜在注意力机制。

SemiAnalysis新出的一篇分析报告,对于deepSeek的分析,包括中国在成本、真实训练成本、封闭模型利润率影响方面的领先地位 ——H100 价格飙升、补贴推理定价、出口管制、多头潜在注意力机制。

DeepSeek风靡全球

过去一周,DeepSeek成为全球范围内热议的唯一话题。目前,DeepSeek的日流量已经远超Claude、Perplexity,甚至Google的Gemini。

然而,对于AI行业的深度观察者来说,这并不是什么“新鲜”新闻。事实上,我们已经讨论DeepSeek有好几个月了。DeepSeek并不是一家公司突然崛起的故事,真正新鲜的,是它如今所引发的狂热关注。SemiAnalysis 早就指出,DeepSeek拥有极其优秀的人才团队,但长期以来,美国公众并未对此给予关注。而当世界终于开始注意到它时,却陷入了一种与现实不符的极端炒作。

值得注意的是,这一舆论叙事与上个月的情况形成了鲜明对比。上个月,有人宣称Scaling Laws被DeepSeek打破,我们曾对此做过澄清。而现在,新的论调是“算法改进速度太快”,这又被解读为对英伟达及其GPU产业的“坏消息”。

如今的观点认为,DeepSeek的模型如此高效,以至于算力不再是瓶颈,整个市场因此出现了严重的算力过剩。然而,这种说法过于夸大。“杰文斯悖论” 其实更接近事实——虽然提升计算效率可能会减少个体需求,但它也往往会创造更多的整体需求。DeepSeek的技术进展已经对市场产生了实际影响,比如英伟达H100和H200 GPU的价格走势。

DeepSeek与幻方量化

幻方量化 是一家中国的量化对冲基金,早在AI兴起之初便开始将其应用于交易算法。他们不仅深知AI在金融领域的潜力,更洞察到了Scaling)的重要性。因此,幻方一直在不断扩充自己的GPU供应。

早在2021年,在出口管制政策尚未出台之前,他们就已购买了10,000张英伟达A100 GPU芯片进行大规模实验,这一决策最终带来了巨大回报。随着AI技术的持续进步,幻方意识到是时候成立一家独立的AI实验室,以更专注的方式推动研究和发展。于是,DeepSeek于2023年5月正式成立,以进一步探索AI能力的极限。

DeepSeek的初期融资完全由幻方量化提供,原因很简单——当时市场对AI创业公司兴趣不大,尤其是缺乏清晰商业模式的企业更难吸引投资。因此,幻方量化选择自主投资,并与DeepSeek共享资源,包括计算基础设施和核心人才。

如今的DeepSeek,早已不是什么“副业”,尽管一些媒体仍然这样描述。根据我们的估算,即便考虑到美国出口管制因素,他们在GPU方面的投资已超过 5亿美元(约35亿元人民币)。

GPU的情况

关于DeepSeek拥有的GPU资源,我们的分析显示,他们目前大约拥有50,000张英伟达Hopper架构的GPU芯片,但这并不意味着他们拥有50,000张英伟达高端H100 GPU芯片——这一点需要澄清。由于美国对华出口管制,英伟达专门为中国市场生产了一系列受限版本的GPU芯片,如H800、H20。目前,H20是中国AI公司唯一可以合法购买的英伟达高端GPU芯片。

需要注意的是,虽然英伟达H800的计算能力与英伟达H100相当,但其网络带宽较低,这可能会影响大规模分布式训练的效率。根据我们的估算,DeepSeek大致拥有:10,000张H800 GPU芯片、10,000张H100 GPU芯片以及大量H20 GPU芯片,因为英伟达在过去9个月内已经生产超过100万张供中国市场使用的GPU芯片,而DeepSeek正在不断采购英伟达H20。这些GPU被用于量化交易、推理、训练和前沿研究,并且地理上分布较为广泛,与幻方量化共享使用。

我们估计,DeepSeek的总服务器资本支出(CapEx)约为13亿美元(约90亿元人民币),其中仅集群运营成本就高达7.15亿美元。与全球AI实验室和超大规模计算公司(Hyperscalers)类似,DeepSeek不仅拥有专用于训练的GPU,还必须为不同任务(如研究、实验、推理)预留算力资源。

相比之下,X.AI(马斯克的AI公司)非常特殊,因为它将所有GPU都集中在一个地点进行管理,而DeepSeek采用了更分散的方式。

DeepSeek人才战略——超高薪酬&自主研发

DeepSeek的人才来源完全来自中国本土,它不依赖求职者的学历背景,而是更加注重实际能力和探索精神。DeepSeek定期在北京大学、浙江大学等顶尖高校举办招聘活动,这些高校也是其主要人才来源。

与传统的科技公司不同,DeepSeek的职位并不固定,员工有很大的灵活性,甚至在招聘广告中就直接宣传:加入DeepSeek,你可以随意使用数万张GPU,没有限制。这一点对研究人员和工程师极具吸引力。

DeepSeek的薪资水平也远超中国其他科技公司。据称,他们为顶尖研究人员开出了超过130万美元(约合920万元人民币)的年薪,远高于国内其他AI公司,如Moonshot(月之暗面)等。目前,DeepSeek的团队规模约为150人,但扩张速度极快。

回顾历史,一个资金充足、专注度极高的初创公司,往往能够突破技术极限。DeepSeek不像Google那样存在繁琐的内部官僚体系,由于它的资金来源独立,不受外部投资人的影响,可以迅速推动创新。然而,与Google类似的是,DeepSeek大部分情况下依靠自建数据中心,而不是依赖第三方云计算提供商。这使他们能够在硬件和系统层面进行深度优化,并探索全新的架构和方法。

DeepSeek是当前全球最强的“开源权重”AI实验室

我们认为,DeepSeek已经成为当前全球最强的开源权重(Open Weights)AI实验室,甚至超过了Meta的Llama团队、Mistral等竞争对手。

DeepSeek的成功不仅仅依赖于技术突破,更得益于灵活的组织架构、自主的计算基础设施和极具竞争力的人才策略。它的崛起正在重塑全球AI行业的格局,成为“后ChatGPT时代”最值得关注的力量之一。

DeepSeek的成本与性能

本周,DeepSeek的超低训练成本和高效能引发了全球范围的热议,尤其是关于DeepSeek V3训练成本仅为600万美元左右的报道。然而,这种说法并不准确。这种计算方式相当于仅依据一项(且较大)材料成本就推测整个生产费用,而实际上,预训练成本只是总成本中的一个小部分。

训练成本的真实情况

我们认为,所谓的“600万美元训练成本”远远低于DeepSeek实际投入的金额。事实上,我们可以相当确定,DeepSeek自成立以来的硬件投资已超过5亿美元,这只是最基本的算力投入。除此之外,在模型研发过程中,还需要大量资金用于测试新架构、调整模型结构、开展消融实验(Ablation Study)等创新探索。DeepSeek的核心技术之一——多头潜在注意力(Multi-Head Latent Attention),就是经过数月的研发、庞大的团队工时和海量GPU计算资源投入才最终落地的。

论文中提到的600万美元成本,仅仅是预训练(pre-training)过程中所消耗的GPU计算成本,但模型的完整训练远远不止于此。真正的成本还包括:研究与开发(R&D)——测试各种新架构、优化模型设计;数据收集与清理——训练数据的获取、清理、标注和处理;人才成本——高薪聘请顶尖AI研究员和工程师;硬件总拥有成本(TCO)——服务器、电力、冷却系统、数据中心维护等。

作为对比,Anthropic训练Claude 3.5 Sonnet的成本就高达数千万美元,如果训练成本真的只有这么一点,那Anthropic就不需要从Google融资数十亿美元,更不需要从亚马逊融资上百亿美元了。因为他们不仅需要训练模型,还需要不断进行实验、优化架构、处理数据、支付员工薪资等等。

DeepSeek V3的性能——缩小差距

V3毫无疑问是一款令人印象深刻的模型,但我们需要明确一个关键问题——它的优势是相对于谁?许多人将V3与GPT-4o进行对比,并强调V3在某些方面已经超越了GPT-4o。这确实属实,但值得注意的是,GPT-4o发布于2024年5月,而AI技术的发展速度极快,以算法进步的速度来看,2024年5月就相当于“上一个时代”。换句话说,DeepSeek能够在较少算力的情况下实现与甚至超越GPT-4o的性能,并不令人意外。

AI的演进路径一直遵循相同的趋势:推理成本(Inference Cost)不断下降,计算效率持续提高;相同级别的AI能力,所需计算量大幅减少。

一个典型的例子是,如今的轻量级模型已经可以在笔记本电脑上运行,其性能接近于当年的GPT-3,而GPT-3在训练和推理时需要超级计算机和多张GPU芯片支持。换句话说,算法改进使得更少的计算资源就能训练和推理出相同能力的模型,而这种趋势一再发生。

唯一的不同之处在于,这次取得突破的是中国的一家AI实验室,因此才引起了全球范围内的高度关注。但如果从技术角度来看,更小的模型变得更强大,这并不是新鲜事。

在过去的AI发展中,我们反复见证了一种模式:绝对计算支出不断增加,但计算效率提升更快,最终带来更强的AI能力。例如:算法进步的速度约为每年4倍,即每年达到相同能力所需的计算量减少到四分之一;Anthropic CEO Dario甚至认为,这一进步速度可能达到10倍。

以GPT-3为例:过去,GPT-3级别的推理成本相比于刚推出时,已经下降了1200倍;GPT-4的训练成本下降趋势与GPT-3类似,尽管处于不同的时间曲线上;算法优化和工程改进,使得训练和推理的成本下降了10倍,同时模型能力也在大幅提升。

所以,DeepSeek的特别之处在于:他们是首个实现如此极端成本效益的AI实验室;他们选择了“开源权重”(Open Weights)策略,但这并非首次,Mistral和Meta的Llama项目此前也做过类似的事情。然而,这一趋势不会止步于此。到2024年底,我们不应感到惊讶,如果AI训练成本进一步降低5倍,这完全符合历史趋势。

DeepSeek R1的性能是否能与OpenAI o1匹敌

另一方面,DeepSeek R1的表现已经达到了与o1相当的水平,而o1仅在2024年9月才发布。DeepSeek为何能如此迅速地迎头赶上?

答案在于推理(reasoning)代表了一种全新的AI范式,它的迭代速度更快,相比以往的范式,其计算成本更低,且有更多“低垂的果实”(即易于取得的技术进步)。在我们的扩展定律(Scaling Laws)报告中,我们已经指出,传统的AI模型训练主要依赖于预训练(pre-training),但这一范式成本越来越高,且难以获得稳定的性能提升。

而新的AI训练范式,即基于合成数据(synthetic data generation)和强化学习(RL)进行推理能力提升的后训练(post-training)方法,能够在较低成本下更快提升模型能力。这一新方法的门槛更低,优化方式更直接,这使得DeepSeek能够比以往更快地复现o1的方法。然而,随着AI实验室进一步探索如何在这一新范式下进行大规模扩展,未来不同AI模型之间的技术代差可能会逐渐拉大。

值得注意的是,R1的论文并未提及具体的计算量,这绝非偶然。要生成用于后训练(post-training)的合成数据,需要投入大量计算资源,而强化学习(RL)同样需要消耗巨量的算力。这并不是在质疑R1的实力——R1的确是一款优秀的模型,能够如此快速追赶全球最前沿的推理能力,已经足够令人印象深刻。更重要的是,DeepSeek在资源相对有限的情况下实现了这一突破,这使得它的成就更具意义。

然而,R1在论文中所引用的一些基准测试(Benchmark)也可能存在误导。将R1与o1直接比较存在一定的困难,因为:R1只公布了它表现领先的基准测试,但未提及其落后的部分;虽然R1的推理能力与o1相当,但它在许多关键指标上并非绝对赢家,甚至在一些方面逊色于o1。

此外,我们还没有提到o3。根据OpenAI最近公布的测试数据,o3的能力远超R1和o1。事实上,o3的性能增长几乎呈现垂直增长(benchmark scaling is vertical),这一趋势表明,虽然深度学习(deep learning)被认为遇到了瓶颈,但这个瓶颈的性质与人们之前想象的并不相同。

Google的推理模型是否已经赶上DeepSeek R1

尽管DeepSeek R1引发了全球范围内的狂热讨论,但与此同时,一家市值2.5万亿美元的公司——Google,早在一个月前就推出了一款推理模型(reasoning model),成本更低:Gemini Flash 2.0 Thinking。这款模型已经向外部开放使用,并且即使在API 访问方式下提供了更长的上下文窗口(context length),其运行成本仍然远低于R1。

根据已公布的基准测试(benchmarks),Flash 2.0 Thinking 在多个指标上优于 R1。但需要注意,基准测试并不能完全反映模型的综合能力——Google仅公布了三个基准测试,因此仍然存在数据不完整的问题。然而,我们仍然认为Google的模型在许多方面足以媲美DeepSeek R1,但它却没有获得与R1相匹配的市场热度。这可能有多个原因:Google的市场推广策略较差,其产品发布和用户体验并未达到预期;R1 是一个“出乎意料的中国突破”,而全球AI关注度已经聚焦在DeepSeek上。

尽管如此,这些都无法否定DeepSeek的非凡成就。DeepSeek能够迅速超越像Meta这样的科技巨头,并率先推出推理模型,主要得益于:敏捷的团队管理,没有官僚体系的束缚;充足的资金支持,确保技术研发不会受到资金限制;清晰的技术愿景,专注于AI领域的关键突破。

DeepSeek的技术成就

DeepSeek成功找到了关键方法,实现了领先实验室尚未达成的创新。并且可以预见,DeepSeek的技术成果将迅速被西方AI研究机构模仿和采用。

训练方法的突破(Pre-training & Post-training)

1. 多Token预测(Multi-Token Prediction,MTP)

DeepSeek V3在训练过程中广泛采用了多Token预测(MTP),这一技术在业界尚属首次大规模应用。

传统的Transformer结构通常每次只预测一个Token,而MTP允许模型一次预测多个Token,大幅提升训练效率。在训练阶段使用MTP可以提升模型的收敛速度,而在推理阶段,这些额外的注意力机制可以被裁剪掉,从而降低推理成本。

2. FP8训练

DeepSeek在V3训练中使用了**FP8(8位浮点数)**来提升计算效率。尽管美国的顶级AI实验室早已采用FP8训练,但DeepSeek在V3规模上首次实现了FP8训练的全面优化,从而提升了计算资源的利用率。

3. 混合专家模型(MoE)

DeepSeek V3采用了混合专家模型(Mixture of Experts, MoE),这是一种新兴的AI训练架构:MoE由多个“专家子模型”组成,每个专家子模型专注于不同的任务。训练过程中,MoE面临的最大挑战是如何高效分配Token,即如何决定哪些Token应该被送到哪个子模型进行处理。DeepSeek通过设计高效的“门控网络”(gating network),实现了精准的Token分配,确保模型的性能不会受到影响。这种设计使得训练时只有部分模型参数需要更新,从而显著提高训练效率,并降低推理成本。

有观点认为,MoE的高效性可能会减少AI产业的整体投资,但Anthropic CEO Dario反驳称,MoE的经济效益反而会加速AI规模化进程,因为更高效的AI只会促使公司加大投入,以获得更强的AI能力。

4. 强化学习(Reinforcement Learning, RL)

R1在强化学习(RL)方面的进步主要体现在两个方面:格式化(Formatting) —— 确保输出结果逻辑清晰、一致;有用性与安全性(Helpfulness & Harmlessness)——确保模型生成的内容对用户有帮助,并避免产生有害信息。

推理能力的提升,主要是在**合成数据集(synthetic dataset)**上进行微调(fine-tuning)后出现的。这一过程与OpenAI在o1上的训练策略类似。不过值得注意的是,R1论文未提及具体的计算量,其背后的原因可能是:如果公布计算量,可能会暴露出DeepSeek真实的GPU资源储备远超外界想象。强化学习需要大量计算资源,尤其是在生成合成数据的过程中,这意味着DeepSeek的计算实力可能比他们对外宣传的要更强大。

5. 训练数据争议

DeepSeek在训练R1时,可能使用了来自OpenAI模型的输出数据。如果属实,这可能会在政策层面引发一系列连锁反应:AI训练数据的“蒸馏”(distillation)问题,即是否可以用其他AI模型的输出作为训练数据;未来可能会实施更严格的KYC(了解你的客户,Know Your Customer)机制,以防止AI公司利用其他公司的数据来训练自家模型。

此外,R1论文还展示了一项极具突破性的能力:通过“微调”(fine-tuning),可以将非推理(non-reasoning)模型转化为推理(reasoning)模型;R1的链式思维(CoT, Chain of Thought)输出数据对外开放,意味着任何人都可以用R1的数据集训练自己的推理模型,这将极大提升小型模型的推理能力。

多头潜在注意力(MLA)是降低推理成本的关键

MLA(Multi-head Latent Attention)是DeepSeek大幅降低推理成本的关键技术之一:MLA能够减少KV Cache需求约93.3%,相比标准Transformer结构,其推理效率更高;KV Cache是Transformer模型中的关键机制,用于存储上下文信息,减少重复计算。但随着上下文长度的增加,KV Cache也会急剧增长,从而导致推理开销飙升;通过MLA优化KV Cache机制,DeepSeek显著减少了推理过程中所需的硬件资源,从而降低了推理成本。

目前,DeepSeek提供的推理服务可能是以成本价运营的,以此抢占市场份额。然而,Google Gemini Flash 2.0 Thinking的推理成本仍然更低,并且谷歌显然不会以成本价提供这项服务。这意味着DeepSeek短期内可能并未盈利。

此外,DeepSeek还在推理端优化了英伟达H20 GPU的使用——H20具有比H100更高的内存和带宽容量,在推理效率上更具优势。DeepSeek还与华为建立了合作伙伴关系,但目前在华为Ascend计算平台上的进展仍然有限。

DeepSeek的低推理成本策略可能会影响整个AI行业的商业模式:目前DeepSeek可能在补贴推理价格,以获取市场份额;AI服务是否会像云计算一样,陷入低价竞争;DeepSeek的崛起,是否会促使中国加大AI领域的扶持力度;美国的出口管制是否会进一步收紧。

无论如何,DeepSeek的技术突破已经改变了全球AI竞争的格局,未来AI产业的发展仍将充满不确定性。

更广泛的利润影响

在利润率方面,有一个关键发现:R1 并非从技术层面削弱了 o1 的进展,而是以更低的价格实现了相当的能力。这在本质上是合理的,现在我们引入一个关于未来定价机制的框架。

提升能力能够带来更高的利润率。这与半导体制造行业的发展极为相似,台积电率先进入新节点(实现新能力)时,由于创造出了前所未有的产品,从而获得了显著的定价权。

其他落后的竞争对手(如三星、英特尔)为了在性价比上达到平衡,会以低于领先者的价格提供产品。对芯片制造商(在此类比为人工智能实验室)而言,幸运的是他们可以调整产能。如果在新模型上能够实现更高的性价比,他们就可以将产能转移到新模型的生产上。旧型号仍会得到支持,但供应量会减少。这与当前人工智能实验室的实际情况以及半导体制造行业的规律高度吻合。

能力的商品化与对更强能力的不懈追求

这或许就是能力竞争的未来走向。率先达到新的能力层级,将获得可观的定价溢价;而那些迅速跟上的参与者,只能获得微薄利润。处于能力层级下游的产品,如果能满足特定用例的需求,仍会继续存在。每一代能够追赶上领先能力的参与者将越来越少。

我们见证的是,R1 达到了领先的能力水平,却以零利润率定价。这种巨大的价格差异引发了一个问题:为什么 OpenAI 的产品如此昂贵?这是因为他们基于最前沿的技术定价,并享受着前沿技术带来的溢价。

我们认为,未来的发展将比领先的芯片制造动态更快。追逐最新的能力意味着持续的定价权(例如 ChatGPT Pro),而落后的能力则意味着更低的定价,此时利润主要来源于为令牌服务的基础设施。

鉴于我们正处于快速的技术周期中,为追求领先的能力,产品更新换代的速度也会加快。只要你能不断拓展能力,开发出创造价值的新功能,就理应获得定价权;否则,在开放模型市场中,你很快就会面临产品同质化的问题。

我们认为,在这种背景下,人们对当前发生的事情存在根本性的误解。我们所描述的情况类似于超高速发展的芯片制造行业,这是世界上资本密集度最高的行业。全球没有哪个行业在研发上的投入比芯片制造行业更多,但与之最相似的现实情况却被认为对支持模型公司的芯片产业不利。

将人工智能令牌与杰文斯悖论相比较,会发现二者有着深刻的历史相似性。起初,人们并不确定晶体管是否能够不断缩小尺寸;而当这一趋势明确后,整个行业便致力于将互补金属氧化物半导体(CMOS)技术的尺寸缩小到极致,并在此基础上构建出各种重要功能。我们目前正处于整合多种思维链(CoT)模型和能力的初期阶段,就像最初对晶体管进行规模化发展一样。虽然从技术进步的角度来看,这可能是一个动荡时期,但对英伟达来说却是有利的。

DeepSeek补贴推理利润率

实际情况是,市场在寻找一个理由,而他们选择了这一点。如果DeepSeek愿意接受零利润率甚至负利润率,那么他们的产品价格可能会如此之低,但显然,提供前沿令牌服务的价格弹性点要高得多。考虑到DeepSeek正在进行新一轮融资,他们有动机这样做。

DeepSeek在推理领域的关键切入点上,打破了 OpenAI 的领先利润率。这种领先地位会持续下去吗?我们认为不会 —— 毕竟一个开放实验室展示出了封闭实验室的能力。尽管这一点至关重要,但我们仍需注意,DeepSeek是一个快速追随者。

我们确实认为,一个更强大的开放实验室(DeepSeek目前是其中的佼佼者)对新兴云服务提供商和服务供应商来说是非常有利的。无论是开放模型还是封闭模型,计算资源的集中化仍然很重要,但如果基于计算资源构建的上层服务免费提供产品,那么计算资源的价值就有可能提升。更多的资金会流向计算资源领域,而非封闭模型供应商,这意味着支出更多地流向了硬件领域。软件企业也能从中受益匪浅。

H100 价格飙升 —— 杰文斯悖论的体现

我们已经看到了这一理论的早期迹象。自 V3 和 R1 发布以来,AWS 多个地区的 H100 GPU 价格上涨,H200 也更难获取。

V3 发布后,H100 价格大幅上涨,因为 GPU 开始以更高的费率实现货币化。更低的成本实现更强的智能意味着更多的需求。这与前几个月 H100 现货价格的低迷形成了鲜明对比。

出口管制的影响、DeepSeek与中国政府

从地缘政治的角度来看,DeepSeek与西方实验室在能力方面的对比,以及出口管制的影响,都值得深入思考。目前已经实施的人工智能扩散管制措施,我们认为不会取消。有消息称,出口管制因DeepSeek的发展而失败,但这是对出口管制机制的误解。最初,H100 被禁止出口,而计算能力相近(但带宽受限)的 H800 被允许出口;随后,H800 也被禁止,现在仅允许 H20 出口。我们在《加速器模型》中提到,尽管需求巨大,但英伟达在 1 月份取消了大量 H20 订单,这可能预示着美国即将出台新的禁令。

在这些法律的实施过程中存在宽限期,DeepSeek很可能在这段时间内大量囤积所需芯片。需要注意的是,H100 自发布以来就被禁止出口。从这个角度来看,出口管制未能完全限制高性能芯片的供应。出口管制的目的并非完全切断中国获取芯片的渠道,而是对整个生态系统进行严格限制,意味着限制数十万甚至数百万芯片的供应,而不仅仅是数万个。

然而,我们预计未来 H20 也将被禁止出口,这将进一步限制DeepSeek获取芯片的能力。

而他们对芯片的需求十分迫切。

DeepSeek的容量限制

DeepSeek难以满足急剧增长的需求。尽管他们拥有世界上最出色的推理技术之一,但进行架构研发、训练模型,与为数千万用户提供可靠服务是截然不同的挑战。DeepSeek的注册服务时常关闭,即便开放注册时,R1 的响应速度也极慢(不过巧妙的用户体验设计掩盖了这一问题)。

我们本月看到的模型受之前出口管制的影响,存在一定滞后性。随着时间推移,DeepSeek深度求索在扩展模型和服务能力方面将面临越来越大的困难。扩展能力迫在眉睫,中国也深知这一点。

在与DeepSeek的首席执行官兼创始人会面后的第二天,中国银行宣布未来 5 年将为人工智能产业链提供 1400 亿美元(1 万亿元人民币)的补贴。该补贴的明确目标是助力中国在科技领域实现完全自主,涵盖基础研究、产业应用和开发等方面。人工智能与机器人、生物技术和新材料是重点关注领域。此外,补贴还包括计算基础设施和数据中心建设,以及为第一代技术设备提供保险和风险管理支持。

我们认为,未来出口管制的影响将更加显著:算法和硬件都将不断进步,美国的实验室能够利用这些创新成果进行扩展,达到中国难以企及的高度。虽然中国可能仍会推出与美国实验室相媲美的模型,但将继续处于追赶地位。

我们也认为,从长期来看,DeepSeek有可能不再开源模型,尤其是在中国政府对其工作给予更多关注,并致力于保护算法创新的情况下。

来源:小柯要加油

相关推荐