摘要:DeepSeek横空出世,激活端侧AI新周期,有望快速推动AI应用的普及。其大模型开源模式和低成本特点降低了AI硬件的创业门槛,而优化后的蒸馏技术使得更多模型能够部署在端侧,在既定算力下推理性能提升降低了企业成本,增强用户体验。在AI的滚滚浪潮中,我们看好AI
中金研究
DeepSeek横空出世,激活端侧AI新周期,有望快速推动AI应用的普及。其大模型开源模式和低成本特点降低了AI硬件的创业门槛,而优化后的蒸馏技术使得更多模型能够部署在端侧,在既定算力下推理性能提升降低了企业成本,增强用户体验。在AI的滚滚浪潮中,我们看好AI SoC芯片将充分受益于算法平权带来的端侧AI硬件爆发式增长、端侧算力需求升级推动SoC的ASP增长,以及国产龙头SoC公司实现模型破局——终端话语权增强——芯片格局突破的成长之路。
Abstract
摘要
AI+汽车芯片:目前各大车企主要将DeepSeek接入智能座舱提升人车交互体验,智驾深度融合在探索中。我们看好:1)DeepSeek推动智驾/智舱普及,硬件预埋带来汽车芯片高速增长。2)DeepSeek提升车端端到端大模型性能,更多中低端车型可部署端侧模型,利好国产性价比芯片。3)我们认为车企后进入者有望借力DeepSeek实现算法追赶,数据优势的重要性上升。
AI+消费电子芯片:AI手机/眼镜/耳机/家电/玩具等纷纷接入DeepSeek,在端侧,主流国产SoC芯片已经支持部署DeepSeek1.5B蒸馏模型。模型端侧化趋势下,端侧算力提升成为共识。我们认为SoC芯片升级方面:1)下一代旗舰芯片AI算力呈现倍数增长,多伴随制程演进;2)近存计算呼之欲出,创新架构有望解决低延时问题。我们看好国产SoC芯片凭借本地产业链优势、细分行业先发优势和垂直深度,在长尾市场竞争相对宽松格局下,充分享受AI硬件创新红利,提升国产芯片份额。
风险
AI算力硬件技术迭代、AI应用落地进展不及预期,贸易摩擦影响供应链稳定性,海外大厂加剧竞争。
Text
正文
为什么我们看好DeepSeek推动端侧AI加速普及?
开源模式+推理成本降低
我们看到AI硬件创新过去的参与者主要有以下几类:智能手机大厂,他们本身具备强势的软硬件研发团队,能够将相关技术经验快速复用到其他领域,比如汽车、智能穿戴;互联网大厂,他们掌握大模型技术,具备流量入口,近期也在硬件方面发力以图巩固自身生态;智能硬件创新企业,他们以某个创新智能硬件作为切入点,具备年轻化的创业团队和相关的技术背景;此外还有各种各样的传统硬件厂商,比如传统家电厂商、传统玩具厂商、传统眼镜厂商等,他们过去的经验主要集中在非智能的部分,如传统工业设计、生产流程和渠道管理等。
DeepSeek-R1的蒸馏模型是开源的,首先降低了AI应用的门槛,使得更多的厂商能够参与其中。我们认为优质大模型的开源,让各类公司的研究人员和开发人员能免费在各类应用中使用和构建这些模型,开源策略不仅促进了技术的传播和应用,也为社区提供了进一步优化和改进模型的机会。我们预计后续能够很快看到各类厂商发布基于R1模型的更多深度应用功能,端侧AI呈现百花齐放态势。
通过算法与硬件的协同创新,DeepSeek可以显著降低AI应用成本。DeepSeek采用了潜在注意力机制MLA、低精度参数、动态资源分配、分布式计算等方法降低单任务对芯片算力的需求及推理能耗。具体到推理成本上,根据OpenAI官网,ChatGPT-o1的输入、输出成本分别为$15.00/百万tokens、$60.00/百万tokens,而DeepSeek-R1的成本仅为$0.55/百万tokens、$2.19/百万tokens。DeepSeek可以用低成本训练出高效的模型,从而推动尖端AI技术走出实验室,成为普惠型生产力工具。
图表1:“大模型平权”下的推理硬件需求逻辑
资料来源:DeepSeek V3技术报告,中金公司研究部
蒸馏技术提升端侧推理性能
模型部署在云侧还是端侧,是许多AI应用场景无法回避的话题。模型端侧部署具备诸多优势,如安全性高、低延时,以及适配硬件收费模式等。然而,过去端侧部署大模型受算力、功耗等多种因素制约,往往需要接入或协同云侧大模型。蒸馏模型相较于原始模型更小、计算效率更高,更适合在资源受限的环境中部署,它弥合了高性能与高效率之间的差距,让更多用户能够使用高级推理功能。蒸馏技术已问世多年,其核心原理是利用一个大型语言模型(“教师模型”)生成预测数据,并以此来训练更小、更高效的“学生模型”,从而将大模型的知识快速迁移至小模型上。传统的蒸馏方式包括:(1)硬标签(Hard Labels):让学生模型直接模仿教师模型的输出结果;(2)软标签(Soft Labels):让学生模型学习教师模型的输出概率分布;(3)中间特征蒸馏:让学生模型学习教师模型的中间层特征,提高对复杂任务的理解能力。根据DeepSeek官方发布的V3技术报告,DeepSeek的蒸馏过程不仅先通过教师模型(如DeepSeek-R1)生成高质量的推理数据样本,还创新性地通过构建问答对的方式将“链式思考”(Chain of Thought, CoT)引入小模型(如Qwen、Llama系列)。这种方式不仅让小模型学会答案,还使其模仿了推理过程。
在以往的蒸馏技术下,学生模型的表现与教师模型存在明显差距。但DeepSeek通过上述蒸馏方式,使小模型不仅继承了DeepSeek-R1的推理能力,在推理效率和资源占用方面也展现出优势。据官方公众号,在开源DeepSeek- R1-Zero和DeepSeek-R1这两个660B模型的同时,DeepSeek利用R1的输出,蒸馏出6个小模型并开源给社区。其中,32B和70B模型在多项能力上可对标OpenAI o1-mini。DeepSeek-R1-Distill-Qwen-32B在AIME 2024基准测试中实现了72.6%的Pass@1,优于其他开源模型。DeepSeek-R1作为开源模型,应用厂商能够充分发挥自身积累的场景知识和优质数据优势,打造出更适配下游应用的小模型。我们认为,此版本标志着AI应用朝着全面普及化和高性能推理应用的方向迈出了重要一步。
图表2:蒸馏小模型超越 OpenAI o1-mini
资料来源:DeepSeek官网,中金公司研究部
分类来看,不同规格的模型有着不同的适用场景,我们总结来看其中1.5B / 7B / 8B:适用于本地部署,因其资源消耗较低,因此适合处理轻量级任务;14B / 32B:具备更强的推理能力,能够应对更为复杂的任务,例如代码补全、长文本问答以及多模态任务等;70B / 671B:性能表现更接近GPT-4级别,可进行更为复杂的推理和决策工作,主要面向大规模云端推理场景 。
图表3:蒸馏模型各版本大致应用
资料来源:DeepSeek官网,中金公司研究部
AI+汽车电子:算法平权有望推动舱驾升级,国产芯片迎来新机遇
座舱先行,智驾有望深度融合
自DeepSeek发布开源模型以来,国内车企在智能座舱和智能驾驶两个方面展开了积极探索。2月6日,吉利汽车宣布将DeepSeek-R1与自研的星睿AI大模型深度融合。极氪旗下自研的Kr AI大模型、东风猛士917智能座舱、长城Coffee Agent大模型等也相继接入DeepSeek-R1大模型,进一步增强了车端与云端的AI能力。目前,这些应用场景主要集中在智能座舱领域,旨在提升座舱的人机交互体验。我们认为,智能驾驶领域也有望深度受益于DeepSeek,但进程相对较慢。这主要是因为DeepSeek属于大语言模型,而自动驾驶通常使用垂直大模型,如何实现两者的有效转变是车企需要深入思考的问题。
硬件预埋,国产汽车芯片开启高速增长
我们认为DeepSeek可能从以下方面影响汽车芯片投资机会:
1)DeepSeek推动智驾/智舱普及,硬件预埋促使汽车芯片进入高速增长阶段。近年来,自动驾驶技术迭代迅速,从高精度地图发展到端到端大模型,再到如今智能驾驶达到高速NOA、城市NOA的水平,L3及更高级别自动驾驶有望加速实现。如今AI的迭代速度远超车企,汽车行业已进入软件定义汽车的时代。硬件预埋不仅可以收集数据用于训练大模型,还能通过OTA升级推送更优算法。因此,尽管算法仍需一定时间优化,但硬件高速增长已然来临。
比亚迪于2月10日召开智能化战略发布会,正式发布高阶智驾系统“天神之眼”。“天神之眼”分为三个版本,其中天神之眼A、天神之眼B搭载于仰望、腾势及比亚迪的中高端车型;天神之眼C随首批21款车同步上市,涵盖7万级到20万级车型,全面覆盖不同消费层次的需求。“天神之眼”的技术亮点在于比亚迪独创的璇玑架构,该架构整合车端与云端AI,实现全栈自研全闭环端到端控制,将控制响应时延缩短至10ms。比亚迪还计划在2025年让至少60%的车型搭载高速NOA及以上的智驾系统,逐步推动高阶智驾技术的普及,并在未来推出更高级别的DiPilot 1000/2000,支持L3级自动驾驶。我们认为国产车企今年底前有望跟进升规升配,汽车芯片在未来3年有望保持高景气。
2)提升车端端到端大模型性能,能让更多中低端车型部署端侧模型,利好国产平价芯片。大模型技术用于智驾面临的挑战之一是线控底盘,底盘控制技术决定刹车、转向、减速和回避等能力。由于行车速度快,对响应及时性要求高,部署在车端的端到端模型决定了智驾性能。一些发力车端的车企,如理想,采用“端到端 + VLM”双系统。其中,VLM 模型参数规模为2.2B,部署在一颗Orin X车端芯片上,用于指导另一颗Orin X上的端到端模型。不过,这种方案并非最终解决方案,它反映出单个芯片支持的端到端模型能力存在不足,而DeepSeek的模型优化思路可用于提升既定算力下的推理性能。另一些发力云端的车企,秉持先在云端探索更强能力,再在车端实现降维的理念。鉴于云端本身具备良好的大模型能力,这类企业也可借鉴DeepSeek的蒸馏技术提升车载端到端模型性能。
DeepSeek 运用知识蒸馏技术,将复杂参数的大模型压缩为适合车端的轻量级小模型,在大幅降低车端算力需求的同时,保留了大部分性能。这使得智能驾驶对高算力硬件的依赖降低,有助于国产智驾SoC发挥自身优势,对在中阶算力有较多布局的国产芯片供应商是一大利好。武当C1200家族是黑芝麻智能专为多域融合、舱驾一体应用场景打造的高性能计算平台,具备高算力、低功耗、高可靠等优势。2月10日,比亚迪在智能化战略发布会上发布全民智驾战略,并推出天神之眼C高阶智驾三目版。同时,地平线最新一代车载智能计算方案征程®6系列正式全球首发落地。
图表4:小鹏模型结构
资料来源:小鹏AI智驾技术分享会,中金公司研究部
图表5:理想双系统方案
资料来源:理想夏季智能驾驶发布会,中金公司研究部
3)数据的重要性日益凸显,后进入者有望借助DeepSeek实现追赶,看好头部车企产业链。当前,各家车企在算法能力上存在差异。DeepSeek大模型的开源正推动“算法平权”的发展,为后进入者创造了赶超机会,有效缩短了彼此间的时间差距。在汽车芯片算力已相对较强的情况下,随着算法平权趋势的推进,我们认为数据的重要性愈发突出。
图表6:2024年中国车企零售销量份额
资料来源:CPCA乘联分会,中金公司研究部
图表7:2024年全球汽车集团零售销量份额
资料来源:中汽数研,乘联数据,中金公司研究部
我们认为国产大模型的突破,有望进一步提升国产车企的竞争力与话语权。出于本地化团队支持和保障产业链安全等因素考量,车企对国产芯片的导入意愿始终较高。伴随国产汽车品牌的崛起,我们认为国产芯片的市场份额有望随之提升。汽车芯片对稳定性和可靠性要求严苛,通常需要大规模上路应用的经验来推动技术迭代升级,而这又将进一步促进国产汽车品牌的发展,二者有望形成良性循环。回顾历史,不少国产芯片正是借助下游国产品牌的突破实现业绩增长并走向海外,最终在全球市场占据龙头地位,例如安防芯片和电视芯片。近日,亿咖通科技宣布正式与大众集团达成合作,为大众和斯柯达品牌的全球车型提供智能座舱解决方案。芯擎科技 “龍鹰一号”为亿咖通·安托拉®1000计算平台提供了高性能支持,首批车型将率先亮相巴西和印度两大新兴市场。我们认为这论证了我们前文的观点,展示出国产汽车芯片在全球竞争中的实力不断增强。
AI+消费电子:智能硬件百花齐放,国产SoC大有可为
智能硬件百花齐放,端侧AI SoC迎东风
DeepSeek具备低成本、高性能的优势,能够全面赋能AI应用终端硬件设备。DeepSeek-R1原始模型的参数量多达671B,对硬件设施的要求颇高;而借助其先进的模型压缩与蒸馏技术,第三方可以从DeepSeek-R1蒸馏出参数规模在1.5B-70B之间的六个版本小参数模型。尽管蒸馏过程会使模型性能有一定程度的损失,但却能换来更大的部署灵活性,有效克服存储空间有限、算力消耗大、推理延迟高这三大端侧部署难题,从而更好地适配手机、PC、耳机、家电等应用终端的嵌入式芯片。例如,云天励飞的DeepEdge10芯片平台已成功适配DeepSeek-R1蒸馏模型(1.5B、7B版本);全志科技的A733芯片也已成功部署DeepSeek-R1:1.5B模型,在搭载该芯片的平板电脑上运行流畅。此外,DeepSeek运用多模态融合技术,整合视觉、语音、传感器等多源数据,实现更为自然的交互方式。同时,基于场景化AI模型,DeepSeek能够为不同终端设备提供定制化服务 。
智能手机:自2月以来,国内多家手机厂商陆续宣布接入国产开源大模型DeepSeek,为用户带来AI问答、深度推理等功能。借助本地化语音识别模型,用户能够通过自定义唤醒词激活手机AI助手。中兴宣布努比亚Z70 Ultra率先实现全尺寸内嵌“满血”DeepSeek-R1,这使得手机能够进行系统级的交互整合,并且可以与努比亚AI耳机等智能穿戴设备实现充分互联。另外,DeepSeek推出了自己的手机应用程序,用户可在安卓和苹果应用商店下载。该应用具备多项AI功能,涵盖文件解析、分析、内容提取,利用图像OCR功能读取图片中的文字,以及生成相应的思维过程辅助用户理解逻辑等。
图表8:多家手机品牌官宣接入DeepSeek大模型
资料来源:荣耀、OPPO、Vivo、中兴官方微信公众号,中金公司研究部
AI眼镜:相较于其他佩戴设备,眼镜能够获取的信息量最大,并且具备同场感,因此产业界看好有望成为实现更综合功能的硬件载体。目前,AI/AR眼镜主要依赖云平台调用大模型。例如,大朋VR的DPVR Glasses通过百度智能云千帆大模型平台调用DeepSeek-R1/V3模型。不过,随着知识蒸馏、量化剪枝技术的日益成熟,从云到端的完整推理优化链条有望逐步完善。
► 多模态交互能力优化,提供更便捷的用户体验:DeepSeek融合视觉(摄像头)、语音(麦克风)、运动(IMU)数据,实现意图链动态推理。用户可以通过语音指令和手势操作完成复杂任务,如导航、信息查询等。例如,Rokid推出的AR眼镜Rokid AR Lite提供两种交互模式:用户可以通过主机操纵屏幕上的射线选择应用或模式;也可以利用Station 2主机作为触控板进行操作。目前,Rokid AR Lite已能分屏使用DeepSeek网页版,用户戴上眼镜后可以在三联屏上操作DeepSeek查资料、编辑文档,无需切换界面。
► 新增深度思考能力,应用场景进一步拓展:星际魅族推出的StarV Air2目前已接入DeepSeek大模型。该眼镜除提升原有的实时对话翻译、自动生成会议纪要等功能外,还增加了深度思考能力,能够为用户带来更具专业性与辩证思维的答案。
图表9:星际魅族AR智能眼镜接入DeepSeek大模型
资料来源:星际魅族官方微信公众号,中金公司研究部
图表10:Rokid AR Lite现已支持分屏使用DeepSeek
资料来源:Rokid官方微信公众号,中金公司研究部
AI耳机:DeepSeek在耳机领域通过端侧语音模型和多模态交互优化,重新定义了无屏交互体验,实现从“语音助手”到“智能外脑”的转变。
► 深度搜索与逻辑分析能力增强:WISHEE DeepSeek满血版AI耳机搭载iVA智能管家,支持“深度思考”指令,能够通过多模型协同工作生成高质量答案。当用户提出复杂问题时,耳机将调用多模型协同框架,其中DeepSeek承担推理任务,搜索模型负责检索信息,生成模型对输出内容进行优化,进而为用户提供多角度的解决方案。讯飞AI会议耳机iFLYBUDS Pro2在正式接入DeepSeek模型后,其内置的viaim AI在问答流畅度、精准度以及响应效率方面均有提升,为用户带来了更加智能高效的使用体验。
► 新增情感交互与健康监测功能:WISHEE AI耳机融合了传感器技术与DeepSeek-R1模型,能够通过声纹分析捕捉用户语气、语速的变化,精准判断用户的情绪状态,并主动适配交互模式,实现情绪感知与情感回应。
智能家电:DeepSeek通过提升智能交互的精准度与自然度,增强家电的自主学习和个性化服务能力,全面赋能家电行业,推动其朝着智能化、个性化、高效化方向转型。
► 新增场景化智能服务:以海信为例,接入DeepSeek后,用户只需按下海信电视遥控器上的小聚AI键,或者直接语音唤醒DeepSeek,在对应的智能体对话页面内,就能通过语音对话获取信息,实现从传统“按键操作”到自然流畅“语音对话”的跨越。此外,凭借DeepSeek强大的推理能力,海信AI电视还能基于家庭成员观看记录进行个性化内容推荐。
► 多模态数据辅助动态决策机制:美的T6空调通过私有化部署DeepSeek大模型,可实时感知温度、湿度、风速等12项环境参数,并基于深度学习推理能力进行多维联动调节。当检测到室内外温差骤增时,系统会自动平衡制冷强度与湿度补偿,避免用户体感不适。
► 自然交互体验打破人机壁垒:借助DeepSeek大模型的语义理解能力,美的T6空调实现“模糊指令控制”。当用户说“有点闷热但别吹头”时,空调能同步完成温度调节、湿度优化、切换无风感模式三项操作,展现出类人类的语言理解能力。
图表11:家电龙头接入DeepSeek大模型
资料来源:海信、长虹、TCL、美的官方微信公众号,中金公司研究部
AI玩具:相较其他AI硬件,AI玩具与教育用品具有载体形态多样、感官优势明显等特点。DeepSeek通过赋予AI玩具自然流畅的语言交互与智能学习能力,为孩子提供个性化陪伴和寓教于乐的体验。
► 多模态感知与情感陪伴:上市企业汤姆猫推出AI陪伴玩具汤姆猫,并与西湖心辰合作训练了情感陪伴垂直模型。该玩具增加了眼神交流等功能,借助高灵敏度麦克风和摄像头等传感器,利用DeepSeek模型判断用户情绪和需求。
► 打造个性化学习方案:教育硬件接入DeepSeek后,能够实现从简单的作业批改、题库生成等工具属性到“智能辅导”的跨越。例如,网易有道接入DeepSeek-R1大模型后,其AI全科学习助手“有道小P”结合DeepSeek-R1的超长思维链,进一步优化了个性化答疑功能,能提供更具深度、更准确的解题思路,有效提升理科答疑能力。学而思将DeepSeek与自主研发的九章大模型相结合,形成“双引擎”模式。该模式在提升学生解题能力的同时,更有助于培养学生深度思考的习惯。
算力提升成为共识,近存计算呼之欲出
► 算力提升倍数增长,先进制程逐渐成为标配
我们看到在消费电子领域,AI SoC芯片的升级方向侧重于AI算力的提升。过去,NPU模块仅为旗舰产品选配,如今已逐步成为标配;且NPU算力每次迭代都呈现大幅的增长。目前,量产产品如RK3588具备6Tops的端侧算力,可支持端侧主流的0.5B-3B参数级别的模型部署。
图表12:消费电子领域AI SoC旗舰产品情况
资料来源:各公司官网,Wind,中金公司研究部
► 低延时需求凸显,近存计算呼之欲出
智能硬件的响应速度需不断接近人的反应速度,过高的延时会直接影响用户体验,阻碍智能硬件的商业化普及。近两年,穿戴类、工业类、智能家居类等端侧应用对算力的需求日益增长。以典型边缘计算落地场景——IP Camera为例,由于需要实时进行AI计算并处理高清视频码流,对带宽要求高。而LPDDR4双通道32位的带宽天然高于标压DDR4。为加快存储芯片和算力芯片之间的数据传输,存算一体的概念在多年前就已被学界探索。近期,我们终于看到业内存储厂商针对端侧算力提出了近存计算的解决方案。
由于不同客户的最终产品形态各异,在容量、速度以及与SoC的连接方式等方面均存在差异,因此类似CUBE这样的产品并非标准件,而是采用半定制化设计。我们看好片内DRAM能够在更大程度上发挥边缘计算的性能,提升端侧延时表现。
图表13:华邦的CUBE封装演进示意
资料来源:EE Times China,华邦官网,中金公司研究部
本地产业链优势、长尾市场竞争宽松,看好国产细分龙头充分受益
我们认为,在大模型的推动下,端侧AI应用呈现出百花齐放的局面。众多长尾应用市场的竞争格局相对宽松,像高通这类海外大厂在面向细分赛道时,往往精力不够集中,产品迭代速度较慢,服务质量也难以与国产芯片厂商相媲美。因此,我们看好国产SoC厂商有望凭借在各细分赛道的先发优势和垂直深度赢得市场份额。
从产业链角度来看,上游有日益成熟甚至在某些方面处于领先地位的国产多模态大模型;中游有各类能够满足不同复杂度和功能需求的SoC芯片,以及强大的模组和组装产业链;下游则有长期紧密合作的终端品牌。我们看好大模型对终端品牌竞争力的提升作用,国产芯片有望从中充分受益。
风险分析
AI算力硬件技术迭代不及预期
SoC芯片是算力硬件的核心,其性能受制程工艺、架构设计及能效优化等关键技术影响。若国内技术迭代滞后,可能导致新品导入量产放缓,SoC芯片企业将面临市场份额被侵蚀、竞争力下降的风险。
AI应用落地进展不及预期
AI技术的快速迭代对芯片性能和功能提出了更高要求,但SoC芯片研发周期长、投入大,且结果具有不确定性,假如端侧AI硬件发展不及预期,有可能导致SoC芯片销量不足以支撑研发成本而形成亏损。
贸易摩擦影响供应链稳定性
SoC芯片技术趋势上通过迭代制程来升级算力和降低功耗,目前旗舰芯片主流制程在12nm/6nm,更先进制程的产品各家也都在研发当中。目前能够提供12nm以下代工的晶圆厂主要在中国台湾和韩国,假如贸易摩擦加剧,SoC芯片代工可能存在不稳定性。
海外大厂加剧竞争
传统大厂此前主要专注更大的市场比如手机、云端算力场景,如果他们加大在中低端市场、低算力长尾市场的竞争、发起价格战,对国内SoC芯片市场将形成直接冲击,国内企业可能面临业绩增长不利的风险。
本文摘自:2025年3月7日已经发布的《AI进化论(4):端侧AI格局生变,国产SoC迎高光时刻》
臧若晨 分析员 SAC 执证编号:S0080522070018 SFC CE Ref:BTM305
成乔升 分析员 SAC 执证编号:S0080521060004
彭虎 分析员 SAC 执证编号:S0080521020001 SFC CE Ref:BRE806
贾顺鹤 分析员 SAC 执证编号:S0080522060002
来源:新浪财经