摘要:今年以来,中国AI企业深度求索(DeepSeek)发布的开源大模型DeepSeek-R1火爆出圈,引发全球广泛关注。如今,几乎所有人都在谈论DeepSeek带来的震撼,而且现在各行各业的公司、政务服务系统以及科研机构和高校等单位,都在全面接入DeepSeek-
今年以来,中国AI企业深度求索(DeepSeek)发布的开源大模型DeepSeek-R1火爆出圈,引发全球广泛关注。如今,几乎所有人都在谈论DeepSeek带来的震撼,而且现在各行各业的公司、政务服务系统以及科研机构和高校等单位,都在全面接入DeepSeek-R1大模型。在这样的背景下,可能不少人也想在自己的笔记本上部署DeepSeek-R1系列大模型来感受它的魅力。那么问题来了,如果用集显轻薄本来跑DeepSeek-R1系列大模型,目前市面上主流的笔记本平台,主要是AMD锐龙AI 300系列处理器和英特尔酷睿Ultra 200H系列处理器,在这两大平台上跑DeepSeek大模型,谁的运行速度更快呢?
在测试开始之前,先简单介绍下DeepSeek-R1系列大模型。2025年1月20日,深度求索公司正式推出DeepSeek-R1大模型,它配备6710亿个参数(即671B),得益于其创新的MoE(混合专家)架构设计,它们能根据具体任务需求智能地激活相关参数。在处理每个词元时,它们仅需激活约370亿参数(37B)就能实现高效精准的任务处理能力。
此外,DeepSeek-R1的输入上下文长度是128K,能够一次性解析约6.5万汉字的长文本,而且DeepSeek-R1并不存在其他规模参数的版本,也就是说671B规模的DeepSeek-R1是真正的“满血版”。
除了“满血版”,深度求索公司还通过DeepSeek-R1的输出“蒸馏”出六个小模型,这六个蒸馏小模型的名字都有DeepSeek-R1-Distill的前缀。所谓蒸馏,指的是知识蒸馏(Knowledge Distillation),它是AI领域的一项模型训练技术,该技术通过类似于“教师(DeepSeek-R1)-学生(Qwen2.5、Llama-3.1等开源模型)”的方式让规模较小、结构较为简单的AI模型从已经经过充足训练的大型、复杂模型身上学习其掌握的知识。
深度求索公司通过DeepSeek-R1的输出基于Qwen2.5-Math、Qwen2.5、Llama-3.1和Llama-3.3等开源大模型蒸馏出六个小模型,它们分别是DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Llama-8B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B以及DeepSeek-R1-Distill-Llama-70B。根据深度求索公司公布的数据,蒸馏的32B和70B模型在多项能力上实现了对标OpenAI o1-mini的效果。
DeepSeek-R1和蒸馏出来的六个大模型都是开源的,每个人都可以下载部署,不过不同规模的大模型在部署时硬件的要求也不同,因为在本地部署大模型时对平台的内存容量和显存容量要求非常高,比如DeepSeek-R1的参数规模达到671B,经过Q4_K_M量化之后的模型文件也有404GB存储空间,也就是说它至少需要500GB以上的内存或者显存容量才能运行,这不是普通笔记本能应付的。
因此,更适合部署在笔记本平台的是那六个蒸馏出来的模型。举个例子,使用主流的INT4量化方案,DeepSeek-R1-Distill-Qwen-32B的文件体积为20GB,至少需要24GB显存或者32GB内存才能运行;DeepSeek-R1-Distill-Llama-70B的文件体积为42.52GB,至少需要64GB内存或者显存才能运行。从这个角度来看,现在大多数轻薄本都配备32GB内存,所以我们可以尝试在这些轻薄本上部署32B及以下规模的DeepSeek-R1-Distill系列大模型。
AMD官方给出的推荐显示,锐龙AI Max+ 395平台在特定条件下最高可运行DeepSeek-R1-Distill-Llama-70B大模型;锐龙AI 9 HX 370平台最高可运行DeepSeek-R1-Distill-Qwen-14B大模型;锐龙8040/锐龙7040平台最高可运行DeepSeek-R1-Distill-Llama-14B大模型。
看到这里,可能很多人都想知道自己的集显轻薄本到底适合部署DeepSeek-R1系列中的哪个大模型以及它们的速度如何。还有的读者可能想知道在本地跑DeepSeek-R1系列大模型时,AMD锐龙笔记本的速度快还是英特尔酷睿Ultra笔记本的速度快。别急,我们马上测给大家看。
进入正式测试之前,我们先简单介绍本地对比测试的两大平台。AMD阵营选择的是一款搭载锐龙AI 9 HX 370处理器的超轻薄本,它配备32GB LPDDR5X 7500双通道内存、1TB PCIe 4.0 SSD,集显则是基于RDNA 3.5架构的Radeon 890M。英特尔平台选择的是一款搭载酷睿Ultra 9 285H处理器的轻薄本,它配备32GB LPDDR5X 7500双通道内存、1TB PCIe 4.0 SSD,集显则是基于英特尔Xe+架构的锐炫Arc 140T。
其中锐龙AI 9 HX 370是AMD第三代AI PC处理器锐龙AI 300系列的旗舰,在售的采用这款处理器的笔记本产品非常多,比较有代表性。而酷睿Ultra 9 285H也是英特尔第二代Ultra 产品中H-SKU的旗舰,在市面上高性能轻薄本中采用较广泛,也非常具代表性。我们就通过这两款典型处理器的表现,来测试分析AMD锐龙AI和英特尔酷睿Ultra在运行DeepSeek中的表现。
在运行大模型时,笔记本需要高效处理海量的并行计算,在并行计算这方面,因为显卡的并行计算能力强大,还支持丰富的专属API,显存的带宽也远大于内存带宽,能够降低延迟,提供更快的速度。所以我们推荐大家在轻薄笔记本上部署DeepSeek-R1系列大模型时优先选择用显卡(集显)来驱动,以获得更好的使用体验。
正因如此,本次对比测试的关键是AMD和英特尔两大平台内置集显的比拼。虽说处理器是整个平台的性能基石,但是在本地运行DeepSeek这样的大模型时,主要看其集显的并行性能。AMD阵营的Radeon 890M显卡采用RDNA 3.5架构,配备1024个流处理器、16组计算单元,支持实时光追以及一系列AMD独有的智能技术,比如AMD Variable Graphics Memory AMD可变显存技术、AMD FSR技术等。英特尔阵营的锐炫Arc 140T显卡采用Xe+架构,配备128个流处理器、8个Xe核心,支持实时光追。这两者都支持WindowsML、DirectML、ONNX RT以及WebGPU等AI推理框架。
从我们的烤机测试来看,用于对比的两台轻薄本都能实现30W左右的整机性能释放水平,从性能释放的角度来讲,这次对比的两个平台是对位的,测试结果更有参考价值。不过由于酷睿Ultra 9 285H处理器的基础功耗为45W,而且参测的英特尔轻薄本的性能释放策略比较激进,所以在烤机刚开始的十几秒里,整机功能甚至能飙升到45W以上。而锐龙AI 9 HX 370机型是一款超轻薄本,机器非常轻薄,在处理器性能释放上偏保守一些,会始终保持在30W左右。
另外,因为不同的笔记本厂商对笔记本的性能调校有所不同,而且模具、笔记本厚度以及散热设计上的不同也会带来性能上的差异,所以笔记本测试可谓“千机千面”,本次测试仅代表这两款轻薄本自身的表现。
相信大家对UL公司都不陌生,我们广泛使用的3DMark、PCMark软件都是UL公司的产品。除了3DMark、PCMark,UL公司还推出了一款UL Procyon Benchmark测试套件,它专为工业、企业、政府、零售和媒体等专业用户而生,这个套件中内置一系列基准测试,包括我们之前测试过的“视频编辑”“照片编辑”“续航测试”等。
现在UL Procyon Benchmark测试套件中新增了对本地大模型的测试项目,它叫AI Text Generation Benchmark。这个基准测试包括Phi-3.5-mini、Mistral 7B、Llama-3.1-8B和Llama-2-13B在内的四个大模型负载。在测试期间,每个模型将执行七个提示,这些提示包含RAG和非RAG查询的混合。这些测试主要衡量使用本地大模型分析本地存储文件以总结或回答其内容相关查询的性能。
尽管英特尔和AMD平台都有各自的AI推理框架,比如英特尔阵营的OpenVINO和AMD阵营的ROCm,不过为了更方便地对比,我们在本次统一使用跨平台的ONNX Runtime推理框架来测试,并在测试最后选择“平均OTS速度”(平均输出token的速度)作为对比的成绩。
从整体的测试成绩来看,AMD锐龙AI 9 HX 370轻薄本和英特尔酷睿Ultra 9 285H轻薄本都能流畅地在本地运行包括Phi-3.5-mini-instruct、Mistral-7B、Llama-3.1-8B以及Llama-2-13B在内的主流大模型,而且输出token的速度都很快,它们运行最大参数规模的LLama-2-13B的平均OTS速度都在7 tokens/s以上。
不过按平台来看的话,我们会看到AMD锐龙AI 9 HX 370轻薄本在以上四个大模型测试中的平均OTS速度都明显领先于英特尔酷睿Ultra 9 285H轻薄本。尤其是在Phi-3.5-mini-instruct测试中,AMD锐龙AI 9 HX 370轻薄本的平均token输出速度达到22.59 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约30.7%。在Mistral-7B测试中,AMD锐龙AI 9 HX 370轻薄本的平均token输出速度达到14.13 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约8%。
在Llama-3.1-8B测试中,AMD锐龙AI 9 HX 370轻薄本的平均token输出速度达到12.15 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约11.3%。即便是运行13B规模的Llama-2-13B大模型,AMD锐龙AI 9 HX 370轻薄本的平均token输出速度也能达到7.92 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约6.3%。
在这项测试中,AMD和英特尔平台都采用系统默认的集显显存分配方式,即我们不做任何修改。由于两个平台都采用32GB LPDDR5X 7500双通道内存,所以它们能运行最大13B的Llama-2-13B模型,而且7 tokens/s左右的平均输出速度也能基本满足多数人日常使用的需求。可以看到,在大模型理论性能测试中,AMD锐龙AI 9 HX 370平台的速度全面领先英特尔酷睿Ultra 9 285H平台,最大领先幅度达到30.7%。更快的token输出速度就意味着更高的效率,谁也不想在使用大模型的过程中慢吞吞地等半天吧!
以上通过基准测试考察了AMD锐龙AI 9 HX 370平台和英特尔酷睿Ultra 9 285H平台在本地运行主流大模型的性能。接下来我们通过llama.cpp在笔记本本地部署DeepSeek-R1系列大模型,并通过llama.cpp内置的llama-bench来实际测试这两大平台实际运行DeepSeek-R1系列大模型的表现。
llama.cpp是一个用C/C++编写的开源推理框架,专门用于在日常设备上高效运行各类大模型。如果你对llama.cpp比较陌生,我们简单解释一下:你可能听过Ollama、LM Studio等工具,它们主要用于在笔记本本地部署大模型,这些AI工具使用的底层核心推理框架就是llama.cpp。
从测试成绩来看,在DeepSeek-R1-Distill-Qwen-1.5B模型中,AMD锐龙AI 9 HX 370轻薄本生成token的速度达到43.17 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约8.1%。在DeepSeek-R1-Distill-Qwen-7B模型中,AMD锐龙AI 9 HX 370轻薄本生成token的速度达到12.26 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约6.9%。在DeepSeek-R1-Distill-Llama-8B模型中,AMD锐龙AI 9 HX 370轻薄本表现最佳,生成token的速度达到11.68 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约16.7%。
在14B规模的DeepSeek-R1-Distill-Qwen-14B模型中,这两个平台的生成速度都在6 tokens/s以上,实际运行起来十分流畅,只不过在这个测试中,AMD锐龙AI 9 HX 370轻薄本落后大约4.7%,它的生成速度为6.66 tokens/s,而英特尔酷睿Ultra 9 285H轻薄本的速度为6.99 tokens/s。另外,由于这两台机器都采用32GB双通道内存,因此在采取Q4_K_M量化之后,它们也能尝试运行32B规模的DeepSeek-R1-Distill-Qwen-32B模型。只不过由于内存容量有限,这两个平台运行DeepSeek-R1-Distill-Qwen-32B模型的生成速度都只有3 tokens/s出头,。虽然英特尔酷睿Ultra 9 285H轻薄本有优势,但实际意义不大。
▲在llama-bench中测试两个平台运行DeepSeek-R1-Distill-Qwen-7B模型生成128个token的速度。
可以看到,系统默认内存设置下,如果是部署DeepSeek-R1-Distill-Llama-8B及以下规模的大模型,AMD锐龙AI 9 HX 370轻薄本在输出token的速度表现上领先英特尔酷睿Ultra 9 285H轻薄本,最高领先幅度达到16.7%。而在DeepSeek-R1-Distill-Qwen-14B和DeepSeek-R1-Distill-Qwen-32B模型中,英特尔酷睿Ultra 9 285H轻薄本的表现更好一些,但实际意义不大,尤其是32B的模型。
对比测试就此结束了吗?并没有。我们在前文提到Radeon 890M显卡支持众多的AMD智能技术,其中AMD可变显存技术值得详细介绍,它是AMD专属的智能技术之一,可以为显存扩容,对我们在本地部署大模型很有帮助。
▲AMD锐龙AI 9 HX 370处理器内置的集显默认显存为512MB
AMD可变显存技术适用于AMD锐龙AI 300系列处理器,它允许用户将最高75%的系统内存用于显卡,去当作集显的专用显存。在默认情况下,AMD集显的“专用”显存为512MB,不过有了AMD可变显存技术的加持,我们可以在AMD Software Adrenalin Edition软件中灵活地调整系统内存与显存的分配情况。
以本次对比的AMD锐龙AI 9 HX 370轻薄本为例,这台机器的内存为32GB,我们在AMD Software Adrenalin Edition软件中最多可以分配24GB的空间给显存,不过AMD建议始终留出至少16GB的内存供CPU使用,因此我们可以将测试平台的显存设置为16GB,即系统内存16GB+显存16GB的搭配。
在游戏当中,通过AMD可变显存技术给显存分配更多空间之后,意味着笔记本平台的显卡显存更大,那么那些需要占用大量显存的游戏就能真正运行起来,不会出现“爆显存”的问题,比如AMD官方举的例子——《漫威银河护卫队》在锐龙AI 9 HX 370默认的显存配置下无法运行,分配更多显存之后才能运行。显存的增加也会提升笔记本运行游戏的帧率,AMD公布的数据显示在锐龙AI 9 HX 370平台,分配更多显存之后,该平台运行《孤岛惊魂6》的帧率会从55fps提升到78fps,提升幅度达到41.8%。
那么这对运行大模型来说有什么帮助呢?前文我们提到运行大模型需要大量的并行计算,显卡更适合做这个工作。我们将16GB系统内存的空间分配给显卡之后,显卡就具备了16GB专用显存,可以用于加载大模型,比如14B及以下规格的DeepSeek-R1-Distill系列模型经过量化之后,都能加载到16GB的显存中,这样一来,系统在运行大模型时的推理速度就更快。尽管这依然是通过系统内存分配过去的,无法改变内存在物理层面的客观事实,但是通过BIOS和Windows系统对分配容量的锁定,多出来的显存对提升显卡的图形性能以及加载大模型的速度有非常大帮助。更重要的是,这是AMD专属,英特尔阵营中的绝大多数轻薄本都没有类似功能。
为本次测试的AMD锐龙AI 9 HX 370轻薄本分配16GB显存之后,我们再通过UL Procyon AI Text Generation Benchmark来看看两个平台运行四个主流大模型的表现。从测试成绩可以看到,显存提升之后,AMD锐龙AI 9 HX 370轻薄本运行主流大模型的平均OTS速度得到“质”的飞跃,它在Phi-3.5-mini-instruct中的平均OTS速度达到27.55 tokens/s,大幅度领先英特尔酷睿Ultra 9 285H轻薄本,领先幅度达到夸张的59.3%。
在Mistral-7B和Llama-3.1-8B模型测试中,AMD锐龙AI 9 HX 370轻薄本的平均OTS速度分别达到17.6 tokens/s、15.27 tokens/s,这样的表现分别领先英特尔酷睿Ultra 9 285H轻薄本大约34.5%和39.8%。对于LLama-2-13B这种更大规模的模型,AMD锐龙AI 9 HX 370轻薄本在分配16GB显存之后的平均OTS提升到9.57 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约28.4%。
理论测试之后,我们同样通过llama-bench来实测两个平台运行DeepSeek-R1系列大模型的表现。可以看出,拥有16GB的专用显存之后的AMD锐龙AI 9 HX 370轻薄本,在所有的模型中都有了明显提升,并全部领先英特尔酷睿Ultra 9 285H平台。比如在DeepSeek-R1-Distill-Qwen-14B模型中,AMD锐龙AI 9 HX 370轻薄本得益于显存的扩大,它的生成速度达到了7.96 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约13.9%。
需要特别说明的是,由于DeepSeek-R1-Distill-Qwen-32B模型经过Q4_K_M量化之后的体积仍然接近20GB,AMD锐龙AI 9 HX 370轻薄本的显存就算扩增到16GB也无法完全容纳,而将显存扩展到24GB之后,系统内存仅剩8GB,此时会无法加载32B大模型,因此它在运行DeepSeek-R1-Distill-Qwen-32B模型的过程中和英特尔酷睿Ultra 9 285H轻薄本一样都是由GPU和CPU一起协作来完成推理的,不过AMD锐龙AI 9 HX 370轻薄本的显存更多,所以它在推理速度上也有一定的优势。可见,提升笔记本系统的内存以及显卡专用显存容量,是可以显著提升本地运行大模型速度的重要途径。
接下来,我们在LM Studio中看看AMD锐龙AI 9 HX 370轻薄本(16GB显存)和英特尔酷睿Ultra 9 285H轻薄本在实际使用大模型过程中的表现。LM Studio一个可以在本地部署多种大模型的工具,它支持Vulkan驱动。LM Studio并不是专业的测试工具,它只是一个大模型应用体验工具,我们在这里主要通过它来实际使用DeepSeek-R1系列大模型,并通过几个大多数用户会用到的场景(文本创作、数学解题、翻译)来考察两个平台的表现。
需要注意的是,由于DeepSeek-R1系列大模型支持思维链,每次提问它都会自行思考,而且在LM Studio软件中我们也无法通过设置随机种子(Seed)、温度(Temperature)等方式来固定大模型的回复内容,所以在这里我们会连续问三遍同一个问题,取输出token的平均速度作为测试成绩。因为所提问题的不同以及回答内容token的不同,这里的LM Studio大模型测试结果仅供大家参考。
·诗歌创作
提示词:“模仿李白的风格写一首七律.飞机”(DeepSeek官方提示词)
在LM Studio的诗歌创作测试中,我们分别让五个DeepSeek-R1蒸馏大模型创作一首诗歌。从测试成绩可以看到,在几乎所有的模型中,AMD锐龙AI 9 HX 370轻薄本都取得了领先优势,只有在不需要大的内存容量的DeepSeek-R1-Distill-Qwen-1.5B中,英特尔酷睿Ultra 9 285H轻薄本略微领先。而在7B、8B、14B以及32B模型中的表现,AMD锐龙AI 9 HX 370都完全优于英特尔酷睿Ultra 9 285H轻薄本。
比如,AMD锐龙AI 9 HX 370轻薄本在DeepSeek-R1-Distill-Llama-8B中的平均生成速度达到13.41 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约10.2%;在DeepSeek-R1-Distill-Qwen-14B中的平均生成速度达到7.66 tokens/s,领先英特尔酷睿Ultra 9 285H轻薄本大约12%。
·数学计算
提示词:“在三棱锥P−ABC中,若PA⊥底面ABC,且棱AB, BP, BC, CP的长分别为1, 2, 3, 4,则该三棱锥的体积为?”
数学计算是非常耗时间的场景,因为DeepSeek-R1-Distill蒸馏模型会仔细思考解答思路,比如此次的两个平台通过DeepSeek-R1-Distill-Qwen-14B模型来回答时,大模型几乎要思考15分钟左右。正是因为需要耗费大量时间进行思考,所以这两个平台在数学计算中的平均生成速度都比诗歌创作时慢。
从结果来看,跟前面的诗歌创作中的表现类似,英特尔酷睿Ultra 9 285H轻薄本只是在DeepSeek-R1-Distill-Qwen-1.5B模型中有非常微弱的优势,在7B、8B、14B以及32B模型中,英特尔酷睿Ultra 9 285H轻薄本的表现都不如AMD锐龙AI 9 HX 370轻薄本,落后4%~8%不等。
·翻译
提示词:
“将以下这段话翻译为中文:
Night gathers, and now my watch begins. It shall not end until my death. I shall take no wife, hold no lands, father no children. I shall wear no crowns and win no glory. I shall live and die at my post.”
接下来让五个DeepSeek-R1-Distill蒸馏模型翻译《权力的游戏》剧集中的经典台词。在翻译环节,英特尔酷睿Ultra 9 285H轻薄本全面落败,它在DeepSeek-R1-Distill-Qwen-1.5B中落后AMD锐龙AI 9 HX 370轻薄本大约6.3%。在DeepSeek-R1-Distill-Qwen-32B模型中,AMD锐龙AI 9 HX 370轻薄本的平均生成速度达到3.47 tokens/s,而英特尔酷睿Ultra 9 285H轻薄本的平均生成速度仅2.84 tokens/s,落后锐龙平台约22.2%。
从以上各项测试可以看到,AMD可变显存技术是一项可以大幅度显著提升本地AI大模型性能的“黑科技”,它在本地大模型遍地开花的时代能为用户带来立竿见影的实质性的帮助。对于AMD锐龙AI 9 HX 370轻薄本而言,借助AMD可变显存技术将更多内存空间分配给显卡之后,对比英特尔酷睿Ultra 9 285H轻薄本,它在运行本地大模型时能够取得高达59.34%的性能提升,非常明显和实用。
还有一点需要特别强调的是,本文为了测试的可比性,两款轻薄本都使用了32GB的内存。试想一下,如果给AMD锐龙AI 9 HX 370轻薄本加装更大容量的内容,并分配更多专属的显存给集显使用,来运行和测试上面的大模型的话,AMD锐龙AI 9 HX 370轻薄本的优势应该还会有非常大的提升,因为AMD可变显存技术理论上可以最高给显卡分配高达96GB的显存使用,这也是我们在前面提到的,AMD锐龙AI Max+ 395平台笔记本甚至可以在特定条件下最高可运行DeepSeek-R1-Distill-Llama-70B大模型!
总结此次我们通过两款配置典型的AMD锐龙AI 9 HX 370轻薄本和英特尔酷睿Ultra 9 285H轻薄本,对两大平台运行爆火的DeepSeek本地大模型的表现进行了深度测试和体验,从理论到实战,从主流大模型到五个DeepSeek-R1-Distill蒸馏模型,我们都做了详细测试。
从测试结果来看,在系统默认、不手动分配集显显存容量的情况下,AMD锐龙AI 9 HX 370轻薄本在多数测试中表现出了优势。在大模型理论性能测试中,AMD锐龙AI 9 HX 370轻薄本全面领先英特尔酷睿Ultra 9 285H轻薄本,最高领先幅度达到30.7%。在DeepSeek-R1-Distill蒸馏模型实测中,英特尔酷睿Ultra 9 285H轻薄本在一些项目中取得轻微优势,比如在DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B中领先,但生成token的速度比较低,实际应用意义不大,尤其是32B的模型中。AMD锐龙AI 9 HX 370轻薄本则在DeepSeek-R1-Distill-1.5B、7B和8B蒸馏模型中的表现出显著优势,最高领先幅度达到16.7%。
而在开启AMD平台专属的“黑科技”AMD可变显存技术之后,通过分配16GB的专用显存给Radeon 890M集显,AMD锐龙AI 9 HX 370轻薄本的理论性能和大模型实测性能都有了非常明显的提升,性能表现全面领先英特尔酷睿Ultra 9 285H轻薄本,在大模型理论测试中取得高达59.34%的领先优势;在DeepSeek-R1-Distill蒸馏模型实测中拥有高达46.25%的优势;在LM Studio大模型场景体验中也有大约22.18%的领先优势。
站在用户的角度来看,在AI大模型应用日益火爆的今天,AMD平台专属的“黑科技”可变显存技术可谓是提升AI性能的秘密武器,好用还免费,即使是给笔记本加装更高容量的内存条也不贵,但通过在AMD Software Adrenalin Edition软件中灵活地调整系统内存与显存容量分配,却可以立竿见影地大幅提升AI大模型的运行性能,甚至让笔记本有脱胎换骨的表现,在大模型时代为用户带来了实质性的帮助,我们的测试也非常明确地证明了这点。这里要友情提醒的是,在轻薄本本地部署大模型非常依赖大容量的内存和性能更高的集显,建议选择32GB及以上内存的配置,这样方能更好地“战未来”。
综上,无论你是打算部署最近火热的DeepSeek大模型来尝鲜,还是想要真正将AI用在日常工作中,相对于英特尔酷睿Ultra 200H系列处理器而言,AMD锐龙AI 300系列处理器以及最新的锐龙AI Max系列处理器也许都是更好的选择,毕竟AMD锐龙AI历代处理器本来在AI性能中就拥有优势,AMD阵营还有像AMD可变显存技术这样的多项“黑科技”能够起到事半功倍的加持效果。
来源:微型计算机