摘要:整个春节假期,各种有关国产最新高效大模型DeepSeek V3/R1适配的消息层出,整个科技界,特别是中国科技界都在加班。谁落下了,就会错失“AI元年”后的第一列快车。
整个春节假期,各种有关国产最新高效大模型DeepSeek V3/R1适配的消息层出,整个科技界,特别是中国科技界都在加班。谁落下了,就会错失“AI元年”后的第一列快车。
无论吹水有多深,AI时代到来的大势不可逆转,只是整个业界苦霉科技霸权、苦NVIDIA算力霸权久矣,微软、OpenAI、xAI/马斯克、Meta、Google等公司更是占用了太多舆论资源。在这个春节,不少“老外”们过不好Chinese New Year,他们正在经历悲伤。目前处于“悲伤的五个阶段”中的第二个,质疑、否认甚至大举封禁DeepSeek,正在美西方国家层面进行,而用户和想靠他赚钱的企业,则用脚投票,前者将DeepSeek送上多个区域的热门App下载榜首,后者则更实用行动说话,快速将DeepSeek接入自家产品。
除夕前夜,AMD成为首个将DeepSeek模型集成至其GPU上的厂商。不过,彼时还是DeepSeek-V3叱咤风云,而且AMD“很聪明”地发挥了其Instinct MI300X GPU在推理层面上的优势,接入侧重推理使用。DeepSeek-R1及Janus-Pro发布之后,AMD没有进一步跟进。
在AI算力层面,AMD是NVIDIA最直接而且是有力的竞争者,后者的优势是算力、有CUDA做护城河、强于学习/训练,DeepSeek的小算子、低算力需求、强化学习(RL)模式,对拥有高吞吐、强推理以及云部署优势的AMD来说,可谓天上飞来的挑翻对手的机会。
英特尔这边也没闲着,工程师们也赶在春节前完成了桌面端的酷睿Ultra平台、至强平台以及AI 加速器Gaudi 2D加速器适配。做为仰望和追赶者,英特尔很努力呀~~
具体来说,英特尔通过其AI PC合作伙伴Flowy,在最新版的AI PC助手(英特尔酷睿Ultra独享版)上,率先在端侧支持了目前最火的DeepSeek-R1模型,普通消费者也能够在一台轻薄本上就可以享受本地大模型的能力。Flowy AI PC助手下载路径为intel.cn/aipc(或https://www.flowyaipc.com/),DeepSeek-R1-8B即为本地模型。
Gaudi 2是英特尔目前不被限制向中国销售的AI加速器产品,其原因嘛,“自然”是性能不够好。但是面对RL,Gaudi 2的“优势”就出来了。Gaudi 2的中国特工版本Gaudi 2D完成了与DeepSeek Janus模型的集成,在此基础上进一步提升的Janus-Pro提供了10亿参数和70亿参数两个版本,性能与精度都更高。Gaudi 2D支持Optimum-Habana 框架的优化,文生图任务的吞吐性能和推理效率更高,开发人员仅需调整数行代码,即可在其上使用Janus-Pro,大大降低了AI应用的开发和迁移成本。
做为国内最炙手可热的GPU供应商,摩尔线程去年已经实现了夸娥(KUAE)万卡集群的部署(体验路径https://playground.mthreads.com)。同时,个人用户也可以基于MTT S80和MTT S4000进行DeepSeek-R1蒸馏模型的推理部署。通过DeepSeek提供的蒸馏模型,能够将大规模模型的能力迁移至更小、更高效的版本,在包括摩尔线程在内的国产GPU上实现高性能推理。通过开源(DeepSeek)与自研(摩尔线程)双引擎方案,摩尔线程基于自研全功能GPU快速实现了对DeepSeek蒸馏模型的推理服务部署,为用户和社区提供高质量服务。
多数人知道海光信息,恐怕还要追溯到当年他获得AMD Zen1架构授权的时候。然而,如今的海光出位更依靠DCU(深度计算单元,即高性能GPGPU架构AI加速卡)深算系列产品,该产品已经完成与DeepSeek-V3和R1模型的适配,并正式上线,用户可通过“光合开发者社区”中的“光源”板块访问并下载相关模型,或直接登录[www.sourcefind.cn]搜索“DeepSeek”,即可基于DCU平台快速部署和使用相关模型。
DeepSeek给AI以及整个科技领域的冲击还远未结束,越是小院高墙的建设,越是使靠廉价和性能冲击国产以及非NVIDIA企业的方式失效。秉持开源思想,DeepSeek已经将其成功路径展现在世人面前,“考上清华的知识都在那里,能不能考上就看你了!”球已踢回美国脚下,别踢回来哟!
刚刚,昆仑芯科技宣布其新一代产品昆仑芯P800万卡集群点亮!并将进一步点亮三万卡集群。同时,昆仑芯适配DeepSeek最新成果也将于明天发布。
来源:CHIP奇谱