Arm 《芯片新思维》报告深度解析:能效、安全、异构等六大未来支点

360影视 动漫周边 2025-04-24 08:07 2

摘要:人工智能正在重构芯片的产业逻辑。随着AI模型复杂度呈指数级增长,芯片架构正在从通用计算向异构计算加速演进;与此同时,AI计算能耗的增加,也在推动芯片在能效比方面的创新。AI芯片革新,既需要技术层面的不断迭代,更需要设计方法论的变革,比如结合芯粒(Chiplet

人工智能正在重构芯片的产业逻辑。随着AI模型复杂度呈指数级增长,芯片架构正在从通用计算向异构计算加速演进;与此同时,AI计算能耗的增加,也在推动芯片在能效比方面的创新。AI芯片革新,既需要技术层面的不断迭代,更需要设计方法论的变革,比如结合芯粒(Chiplet)、3D封装等进一步寻求物理极限的突破。 在此背景下,Arm重磅发布了主题为《芯片新思维:奠定人工智能时代的新根基》的行业报告。该报告集结了多位来自Arm及行业技术专家深度思考的成果,深入解析芯片技术如何在满足AI算力需求的同时,有效应对未来的发展挑战,揭示了AI芯片未来在能效、安全性、异构计算以及相应软件生态等关键方向的发展趋势。

方向一:AI 计算的能效与可持续性高能效的AI芯片正处在挑战与机遇的交汇点。硬件创新加之与软件的协同设计,正在为可持续、可扩展的 AI 解决方案铺平道路,未来的方向将聚焦于实现功耗、性能和经济效益的平衡。 报告指出,随着数据科学家要求硬件能够支持新的数据类型和模型架构,AI定义芯片设计的趋势已经显现,芯片设计正在不断进行调整,以满足这些前沿需求。然而,一大挑战在于,硬件从设计到流片往往需要数年时间,而在快速演进的 AI 领域,新的模型正以稳定的快节奏推向市场,例如ChatGPT 和 Llama 模型已完成多次更新迭代。 那么,究竟应该如何更好地平衡算力和能效?Arm解决方案工程部执行副总裁Kevork Kechichian认为,首先要从最底层出发,从晶体管层开始,与晶圆代工厂紧密合作,确保晶体管在功耗和性能方面实现优化,无论是动态功耗还是漏电功耗;再来是架构层面,对 CPU 以及各类处理引擎的指令集进行针对性优化;然后向上进入整个结构中的更高层级,从系统级芯片 (SoC) 设计、封装到数据中心等方面进行优化。在此过程中,关键要点在于对数据及其传输过程的保护,降低在内存之间传输数据所消耗的电力;最后,在支撑大型数据中心运行的软件层,实现智能负载均衡,即针对AI的不同方面进行处理上的优化,并合理分配工作负载,尽可能减少不同节点之间的数据传输。 与此同时,底层架构的创新,如新的指令集和功能的引入,能够为 AI 带来重大的创新机遇。例如,Arm 定期推出的新功能,如可伸缩矢量扩展 (SVE2) 和可伸缩矩阵扩展 (SME),这些功能都集成于 Arm 架构中,为生态系统增加了新的 AI 能力。值得注意的是,如今的硬件已经具备训练 Transformer 模型的强大能力,而这类模型正是生成式 AI 的基础。理想的情况是,AI 和芯片技术能够实现一种整体协同设计的方法,即硬件和算法同步开发,以实现最佳性能和效率。方向二:AI时代的芯片保护Arm在报告中指出,如今的安全防御已不再仅仅是防御传统恶意软件的问题,而是要为一个AI本身成为攻击者的未来做好准备。 当前,AI芯片设计主要面临以下三方面的挑战与趋势: 首先是AI计算的庞大规模使得错误处理机制变得尤为关键。即使是微小的数据损坏,也可能引发连锁故障,造成严重问题。正因如此,现代芯片设计在硬件层面引入了强大的错误检测与纠正机制,通过纠错码 (ECC) 在内存和通信子系统中持续不懈地运行,确保 AI 计算全程中的数据完整性。 与此同时,随着AI模型的规模和复杂性呈指数级增长,对可扩展计算架构的需求变得尤为迫切。对此,行业正通过创新路径构建解决方案:将模块化的芯粒设计以及专用的 AI 加速器越来越多地集成到SoC中,在确保系统可靠性的同时,实现了灵活的算力扩展。 其次,边缘计算也使得数据隐私与安全领域迎来一种全新的范式,它不仅仅是一场技术革新,还从根本上改变了业界对数据保护的思考方式。边缘计算本地化的特性天然强化了隐私与安全性,缩小了潜在数据泄露的攻击面。不过,边缘侧的数据保护需要成熟的硬件解决方案。现代 SoC 集成了安全飞地和可信执行环境(TEE),在芯片内部构建了加固的数字保险库。这些隔离环境能够有效保护敏感的 AI 计算,尤其是推理处理,使其免受未经授权的访问或篡改。此外还有特权访问控制和安全内存管理单元 (MMU),以打造适用于边缘计算多样化生态系统的统一安全框架。 第三是定制芯片的安全标准。专用计算的兴起催生了对定制芯片解决方案的空前需求,这种定制化在显著提升性能优化的同时,对安全性提出了更高要求。因此,稳健的安全框架对于确保这些专用芯片依然符合严格的保护标准是必要条件。 PSA Certified 认证项目正在引领这一标准化进程,通过对安全启动、加密服务以及更新协议等方面制定全面的要求,PSA 认证项目为芯片制造商提供了清晰的路线图,使其能将安全机制深植于定制芯片解决方案的基础架构中。作为对该认证项目的补充,物联网平台安全评估标准 (SESIP) 为定制芯片的安全评估提供了结构化的方法,确保定制芯片在整个运行生命周期内始终保持其完整性与安全性。 同时,监管环境为定制芯片的安全性增添了另一项关键维度。例如,针对车辆网络安全的 UNECE R155 标准和针对汽车系统的 ISO/SAE 21434 标准,都反映了业界日益认识到定制芯片必须满足严格的行业特定要求。方向三:AI 时代芯片设计的深度重构随着半导体缩放技术逐渐逼近物理极限,行业正处于一个转折点,这一转折点要求业界从根本上改变芯片的设计和制造方式,这将主要体现在:传统缩放技术的终结、芯粒与先进封装技术的崛起、内存挑战、电力以及AI 对芯片设计的影响等等。传统缩放技术的终结如今,所谓的“缩放”主要通过一些被称为“缩放助推器”的结构性创新来实现,即通过除简单缩小晶体管间距之外的其他方式来提升晶体管密度的架构变革。这类创新包括连续有源区/氧化扩散区 (COD)、有源栅极上接触 (COAG)、全环绕栅极 (GAA) 晶体管以及背面供电技术。 报告表明,半导体技术的下一轮重大突破可能来自互补场效应晶体管 (CFET),即单片 3D 集成技术,不过其商用化应用的时间尚不明朗。而更具革新性的进展,例如采用 MOS2 等新型沟槽材料,则可能需要更长时间才能实现。 这一新的技术对片上存储产生了影响。尽管逻辑电路仍可从各种缩放助推技术中受益,但在CFET 技术成熟之前,SRAM 将不会再有显著的密度提升。这意味着,与逻辑电路相比,片上存储的单位比特成本正在大幅攀升——这将成为计算架构设计的一个关键考量因素。芯粒与先进封装技术的崛起将系统拆分为芯粒,并通过并排或 3D 堆叠方式进行集成时,实现诸多优势的背后也伴随着挑战。当组件分散在多个晶粒上时,电源供给会变得更加复杂。3D 堆叠虽然提高了功率密度,却也带来了供电与热管理方面的挑战。此外,芯粒之间的接口还引发了关于延迟控制、功耗管理以及能效优化等新设计考量。内存挑战包括高带宽存储器 (HBM) 集成新方案等在内的内存架构创新仍在持续演进。HBM 堆栈底部的逻辑晶粒可以支持更复杂的处理能力,由此催生的近存计算架构能够帮助减少数据在内存与处理器之间传输所需的时间和功耗。这标志着一个重大转变——从将内存视为通用组件,到将其认定为计算架构中不可或缺的组成部分。电源管理挑战随着芯片复杂度的提升和 AI 工作负载需求的激增,电源管理或已成为设计人员面临的最严峻挑战。多个领域正在加速创新,包括:更成熟的电源域管理;电压调节与分配的新技术和新方法;增强的热管理技术;基于工作负载特性的计算资源优化。AI对芯片设计的影响AI 本身也正在成为芯片设计流程中不可或缺的一部分。机器学习 (ML) 技术正被应用于布局布线、能耗优化等各个设计环节,由此形成了一个有意思的反馈回路——AI 正在协助设计用于运行AI工作负载的芯片本身。方向四:异构计算推动 AI 革新“我们正处于一种全新基础模型范式的关键转折点,这不仅会增加 AI 推理的复杂性,还将催生对更多对专用 CPU 架构的需求”,Creative Strategies 首席执行官兼首席分析师 Ben Bajarin指出。Arm 计算平台的灵活性使以下三大层面的工作得以实现,这也是其在AI时代重要角色的体现: - 异构计算:基于Arm架构的CPU正成为GPU和TPU等AI加速器的理想搭档——既能高效管理数据流和通用计算任务,又能应对工作流程中遇到的瓶颈。 - 推理效率:大型 AI 模型的训练通常依赖高性能 GPU,而 Arm 的高能效处理器则非常适合在端侧和数据中心执行推理任务。 - 可扩展性:Arm 架构支持CPU、GPU与专用加速器的无缝集成,这对于打造优化的 AI 系统至关重要。 同时,处理器架构已成为决定AI系统能效与性能的关键要素,要能够快速适应AI的需求。Arm定期发布新CPU架构及支持功能的持续创新能力、定制化潜力,以及出色的能效优势,都使其成为这一领域的关键力量。 值得一提的是,Arm从移动设备向数据中心核心领域的迈进,即将抵达一个关键里程碑。包括AWS、微软、Google 和 NVIDIA 等行业巨头正在广泛支持Arm架构,它们将助力 Arm未来几年在数据中心占据显著份额。方向五:软硬件的协同发展Arm认为,AI 发展的未来在于软件与硬件的协同发展。这一趋势可以从以下几方面来看: 首先是互操作性的重要性。AI框架间的互操作性是开发者关注的一个核心议题,尤其是专为边缘AI推理设计的终端设备,往往需要在多种硬件平台上运行。因此,开发者常常倾向于采用 CPU 作为后端,因为 CPU 的普及性有助于确保更广泛的兼容性。 其次是新数据类型的出现,AI催生了数据类型从整数表示向浮点数表示的迁移,近年来更是发展到更小位宽的浮点格式。要跟上这种变化趋势,硬件必须不断做出调整,这也凸显了软件兼容性与支持能力的重要性。 此外还包括AI的关键开发者工具。开发者会优先选择能够深度洞察系统行为的工具,尤其是那些专注于性能分析和调试的工具。识别性能瓶颈并优化模型,是实现高效 AI 部署的关键步骤。方向六:先进封装和芯粒技术标准化至关重要为应对AI持续演进所带来的空前计算需求,产业正积极采用定制芯片、计算子系统 (CSS) 和芯粒等创新技术与方法,而这些技术与方法将定义未来十年的技术创新方向。它们是否是未来AI计算的主流路径,又将如何形成良好的协同效应? Arm解决方案工程部执行副总裁Kevork Kechichian表示,对海量AI计算的需求正在推动多种技术加速融合。从芯粒技术角度来看,鉴于先进工艺节点所能产出的实际可用晶粒 (die) 数量有限,行业正转向采用尺寸更便于管控的芯粒技术。同时,将芯片中的不同功能模块进行隔离设计,也大大提升了整体的成本效益。 “当我们将一个复杂的 SoC 拆分为不同模块时,我们可以从纯粹的计算子系统角度出发,也可以从内存子系统及其相关的内存和I/O接口出发进行划分。这些子系统和模块都可以独立设计,并在封装层级实现集成”,Kevork Kechichian指出。 此外,一些先进的封装范式实际上正在提升这些芯粒的性能与能效。以3D封装为例,当不同的晶粒垂直堆叠在一起,无论是计算晶粒、基底晶粒还是内存晶粒,从处理单元到内存的接口距离都会变得非常短,这不仅显著减少了数据的传输路径,还降低了功耗,并提高了整体性能。 他强调,最为关键的是,先进封装与芯粒技术的真正价值在于实现真正的标准化。通过标准化,企业可以根据不同的性能需求,快速地组合和配置这些芯粒,从而打造出具有不同性能定位的芯片。这不仅大大缩短了产品上市周期,也能确保在快速迭代的市场竞争中占据先机。写在最后芯片正站在创新与AI的交汇点,相较于一直指引和贯穿半导体行业发展的摩尔定律和半导体缩放技术等,定制芯片、CSS 以及芯粒等创新方案正在大放异彩。与此同时,AI 芯片也面临着算力与能效、专用与通用、安全与灵活等多重挑战。 Arm的这份行业报告正当其时,揭示了行业未来的关键趋势:不论是面向特定AI工作负载打造专用架构,还是直面能效问题,或是应对新兴AI 驱动型威胁的安全技术发展,以及持续释放软件生态系统在芯片开发中的潜能。 Kevork认为,行业若想取得成功,既要直面复杂性,又要找到高效管理复杂性的方法——这将依赖于全新的工具、方法论,以及生态系统内前所未有的协作。 而打造一个可持续且面向未来的生态系统的关键在于,必须充分激发并整合各方在不同领域的核心专长。当前,各类产业联盟正在蓬勃发展,成为推动行业创新发展的重要力量。商业上的收益会是参与各方的驱动力,例如,晶圆代工厂关注晶圆销售带来的收入增长,各类IP提供商则聚焦于权利金的增长,这一清晰的商业逻辑贯穿于整个产业链,一直延展到服务提供商,再到仿真平台领域。而在此生态系统中,软件的复用会让参与的各方都能从中获益,共同推动生态系统的繁荣与发展。

来源:与非网

相关推荐