HBM新技术,横空出世

360影视 动漫周边 2025-03-21 18:43 2

摘要:数据显示,未来 HBM 市场将以每年 42% 的速度增长,将从 2023 年的 40 亿美元增长到 2033 年的 1300 亿美元,这主要受工作负载扩大的 AI 计算推动。到 2033 年,HBM 将占据整个 DRAM 市场的一半以上。

AI 的火热,令 HBM 也成了紧俏货。

业界各处都在喊:HBM 缺货!HBM 增产!把 DDR4/DDR3 产线转向生产 DDR5/HBM 等先进产品。

数据显示,未来 HBM 市场将以每年 42% 的速度增长,将从 2023 年的 40 亿美元增长到 2033 年的 1300 亿美元,这主要受工作负载扩大的 AI 计算推动。到 2033 年,HBM 将占据整个 DRAM 市场的一半以上。

可即便行业全力增产,HBM 供应缺口仍然很大,芯片巨头也急的「抓耳挠腮」。

当下,存储芯片巨头主要有两大行动方向。一方面,对 HBM 技术持续升级并加大现有 HBM 产品的产量;另一方面,分出部分精力,关注另一种形式的 HBM 产品。

HBM4,来了!

在 HBM 的技术升级中,SK 海力士总是那个「第一个吃螃蟹的人」。

3 月 19 日,SK 海力士宣布推出面向 AI 的超高性能 DRAM 新产品 12 层(12Hi)HBM4 内存,并在全球率先向主要客户出样了 12Hi HBM4。

SK 海力士在 12Hi HBM4 上采用了 24Gb DRAM 芯片,继续使用了 Advanced MR-MUF 键合工艺,单封装容量达 36GB,带宽达 2TB/s,运行速度较 HBM3E 提升了 60% 以上。

SK 海力士强调,以引领 HBM 市场的技术竞争力和生产经验为基础,能够比原计划提早实现 12 层 HBM4 的样品出货,并已开始与客户的验证流程。公司将在下半年完成量产准备,由此巩固在面向 AI 的新一代存储器市场领导地位。

日前还有报道称,SK 海力士预计将独家供应英伟达 Blackwell Ultra 架构芯片第五代 12 层 HBM3E,预期与三星电子、美光的差距将进一步拉大。

反观竞争对手三星这边,HBM3E 此前一直未能获得英伟达品质认证,而最新消息则是三星新 HBM3E 在日前英伟达的审核中获得令人满意的评分,预计最快 6 月初通过英伟达等的品质认证。

除此之外,这些存储龙头还在一些新兴 HBM 技术上下足功夫。

移动 HBM,存储巨头下场了!

本文要谈到的第一种新兴技术,被称为移动 HBM。

移动 HBM,即 LPW DRAM,也被称为低延迟宽 I/O (LLW)。该技术是堆叠和连接 LPDDR DRAM 来增加内存带宽,它与 HBM 类似,通过将常规 DRAM 堆叠 8 层或 12 层来提高数据吞吐量,并具有低功耗的优势。

移动 HBM 和 LPDDR 最大的区别在于是否是「定制内存」。LPDDR 是通用型产品,一旦量产即可批量使用;而移动 HBM 是一个定制产品,反映了应用程序和客户的要求。由于移动 HBM 与处理器连接的引脚位置不同,因此在批量生产之前需要针对每个客户的产品进行优化设计。

HBM 是在 DRAM 中钻微孔,并用电极连接上下层。移动 HBM 具有相同的堆叠概念,但正在推广一种将其堆叠在楼梯中,然后用垂直电线将其连接到基板的方法。

三星和 SK 海力士均看中了移动 HBM 的潜力,但这两家公司采取的技术路线各不相同。

三星开发「VCS」技术

三星正在开发名为「VCS」的技术,该技术将从晶圆上切割下来的 DRAM 芯片以台阶形状堆叠起来,用环氧材料使其硬化,然后在其上钻孔并用铜填充。堆叠形式可参照下图右下角的呈现。

三星表示,VCS 先进封装技术相较于传统引线键合,I/O 密度和带宽分别提升 8 倍和 2.6 倍;相比 VWB 垂直引线键合,VCS 技术生产效率提升 9 倍。

三星还为其新款 LPW DRAM 设定了高性能目标,与其尖端移动内存 LPDDR5X 相比,新款 LPW DRAM 的 I/O 速度预计将提高 166%。这比每秒 200GB 更快,同时功耗降低了 54%。

三星电子半导体暨装置解决方案(DS)部门首席技术官宋在赫表示,搭载 LPW DRAM 内存的首款移动产品将在 2028 年上市。

近日,有业内人士表示,三星电子目前正与多个系统级芯片(SoC)客户合作开发 LPW DRAM,已确认其中包括苹果和三星电子的移动体验(MX)业务部门。

SK 海力士开发「VFO」技术

SK 海力士正在开发名为「VFO」的技术,与三星的 VCS 不同,SK 海力士选择的是铜线而非铜柱。DRAM 以阶梯式方式堆叠,并通过垂直柱状线/重新分布层连接到基板。堆叠形式可参照下图。

它在连接元件和工艺顺序方面与三星电子也不同,它使用铜线连接堆叠的 DRAM,然后将环氧树脂注入空白处以使其硬化,来实现移动 DRAM 芯片的堆叠。

SK 海力士的 VFO 技术结合了 FOWLP(晶圆级封装)和 DRAM 堆叠两项技术,VFO 技术通过垂直连接,大幅缩短了电信号在多层 DRAM 间的传输路径,将线路长度缩短至传统内存的 1/4 以下,将能效提高 4.9%。这种方式虽然增加了 1.4% 的散热量,但是封装厚度却减少了 27%。

至于为什么两大存储巨头纷纷看上移动 HBM 这一赛道,主要源于设备上 AI 需求的推动,内存公司正在转向 LPW DRAM 的开发。由于预计继服务器领域之后,移动领域也将出现内存瓶颈,因此计划积极推出高性能 DRAM。

cHBM,横空出世

本文要谈到的第二种新兴技术,即 cHBM。

cHBM,即 Custom HBM,也就是定制高带宽内存。其实上文提到的移动 HBM 也属于 cHBM 的一种。

这个新型技术,由 Marvell 于去年 12 月推出。其与领先的内存制造商,如美光、三星和 SK 海力士等合作开发。

在 AI 算力芯片领域,GPU 广为人知,是备受瞩目的存在。然而,鉴于部分场景对定制化算力芯片需求更为强烈,ASIC 芯片应运而生。

如今,这一理念,也延续到了 HBM 领域。

那么,定制 HBM 与常规 HBM 有何不同?本文将用相对直白的阐述做一下介绍。

首先我们先来看一下常规的 HBM。据悉,HBM 已存在十多年,最初用于 AMD GPU 和 Xilinx FPGA,通过 1024 条以合理速度运行的数据线实现高带宽,节省功耗但成本较高,限制了其应用范围。

HBM 面临的主要问题是容量限制,每个通道仅有一个堆栈,容量在 HBM3 之前有限,HBM4 虽有所增加,但根本问题在于 DRAM 密度和堆叠成本。

众所周知,HBM 的原理像是利用 DRAM 在叠高高,这种办法成本高昂,并且增加堆栈数量虽可部分解决容量问题,但会引发芯片边缘空间限制、堆栈高度和经济可行性等一系列新问题。由于引脚和走线需求,HBM 堆叠数量受芯片边缘长度限制,通常每侧最多 3-4 个堆叠,且受标线极限(约 800mm2)制约。

因此,尽管 HBM 有其优势,但在容量和堆叠数量上仍面临挑战。

那么,cHBM 带来了什么呢?

Marvell 的 cHBM 解决方案针对特定应用量身打造介面与堆叠,目标是减少标准 HBM 介面在处理器内部所占用的空间,释放可用于运算和功能的空间。

在接口方面,可见下图,HBM 是集成在 XPU 中的关键组件,使用先进的 2.5D 封装技术和高速行业标准接口。然而,XPU 的扩展受到当前基于标准接口架构的限制。全新的 Marvell cHBM 计算架构引入定制接口,以优化特定 XPU 设计的性能、功耗、芯片尺寸和成本。

在性能提升方面,借由专属 D2D(die-to-die)I/O,不仅能在定制化 XPU 中多装 25% 逻辑芯片,也可在运算芯片旁多安装 33%cHBM 存储器封装,增加处理器可用 DRAM 容量。预期可将存储器介面功耗降低 70%。

在带宽增加方面,新 Marvell D2D HBM 介面将拥有 20 Tbps/mm(每毫米 2.5TB/s)频宽,比目前 HBM 提供的 5Tbps/mm(每毫米 625GB/s)多。此外,预期无缓冲存储器的速度将达 50Tbps/mm(每毫米 6.25TB/s)。Marvell 没透露 cHBM 介面的宽度及更多信息,仅表示通过序列化(serializing)与加速内部 AI 加速器芯片与 HBM 基础芯片之间的 I/O 介面,来增强 XPU。

在硬件设计方面,由于 cHBM 并不依赖 JEDEC 标准,因此硬件部分需要全新的控制器和定制化实体介面、全新的 D2D 介面及改良的 HBM 基本芯片。与业界标准 HBM3E 或 HBM4 解决方案相比,cHBM 介面宽度较窄。

说简单点,也就是 cHBM 可提供定制化接口以减少处理器内部空间占用,实现更高芯片装载量、更低功耗、更高带宽,并具备全新硬件设计。

关于应用,cHBM 的灵活性可以在不同类型的场景中带来利好:

云提供商将其用于边缘 AI 应用,其中成本和功耗是关键标准。

在基于 AI/ML 的复杂计算场中使用,其中容量和吞吐量被推到极限。

HBM 的应用场景,也在拓宽

除了技术的拓展,HBM 的应用场景也在不断拓宽。

如上文所述,移动 HBM 主要应用于移动终端等设备,而 Marvell 的 cHBM 则主要适配 AI 领域的特殊需求。除了这两点,HBM 产品还有这样一种场景吸引人的注意力。即:HBM 上车。

HBM 在汽车中应用并不是一个新故事。

日前,SK 海力士副总裁 Kang Wook-sung 透露,SK 海力士 HBM2E 正用于 Waymo 自动驾驶汽车,并强调 SK 海力士是 Waymo 自动驾驶汽车这项先进内存技术的独家供应商。

据悉,SK 海力士的车规级 HBM2E 产品展现了卓越性能:容量高达 8GB,传输速度达到 3.2Gbps,实现了惊人的 410GB/s 带宽,为行业树立了新标杆。以此为契机,SK 海力士正积极拓展与 NVIDIA、Tesla 等自动驾驶领域解决方案巨头的合作网络。

至于为什么汽车也要用上 HBM,笔者在此对汽车存储的需求进行分析。

在面对智能座舱、车载信息娱乐系统、高级驾驶辅助系统日益火热的当下,车用存储芯片涉及 NOR Flash、eMMC、UFS、LPDDR、SSD 等品类。其中对内存的需求正在迅速扩大,当前主要产品是 LPDDR,以 LPDDR4 和 LPDDR5 为最多。

未来,只靠这些难以满足汽车对存储的全部需求。据测算,高端汽车在信息娱乐领域使用 24GB DRAM 和 64/128GB NAND,到 2028 年预计 DRAM 容量将超过 64GB,NAND 将达到 1TB 左右;对于 ADAS,预计当前 128GB DRAM 容量将增加到 384GB,NAND 将从 1TB 扩大到 4TB。

除此之外,在智能驾驶等应用场景的需求驱动下,存储系统的功能已超越了单纯的数据保存。它还必须实现高效的数据交换,例如,能够迅速地将搜集到的各类信息进行即时传递与处理。

毕竟只有实现快速的数据交换,计算平台才能及时对信息进行分析与处理,进而精准控制车辆的行驶速度、转向角度等关键操作,保障智能驾驶的安全与流畅运行。

SK 海力士副总裁 Ryu Seong-su 透露,公司的 HBM 正受到全球企业的高度关注,苹果、微软、谷歌、亚马逊、英伟达、Meta 和特斯拉等七巨头都向 SK 海力士提出了定制 HBM 解决方案的要求。

定制 HBM,成为潮流

日前,三星在芯片代工论坛中提到,将从 HBM4 开始实现客户定制化产品。业界消息人士透露,三星电子和 SK 海力士都在加速拓展「定制化内存」市场,即按照客户所需形式制造和交货 HBM。

据报道,为了应对定制化 HBM 需求,三星针对每位客户性能需求开发优化产品,目前正与多家客户讨论详细规格。

负责 PKG 产品开发的副总裁 Lee Kyu-jae 表示,能在 HBM 市场占主导地位的最大动力是在客户需要的时间提供产品,公司计划确保混合键合等新技术的同时,不断推进先进的 MR-MUF 技术。

Lee Kyu-jae 强调开发下一代封装技术的重要性,必须针对定制化产品需求增加入行回应,「预计今年下半年量产 HBM4,我们考虑从先进的 MR-MUF 和下一代混合键合方法」。

定制化 HBM 可能是解决内存市场供过于求疑虑的新解决方案。郭鲁正指出,随着公司超越 HBM4,定制化需求将增加,成为全球趋势,并转向以合约为基础的性质,逐渐降低供过于求的风险。SK 海力士也将开发符合客户需求的技术。

随着 AI 兴起,HBM 市场从「通用型市场」演进为「客户定制化市场」,不管是三星在芯片代工论坛的发言,还是 SK 海力士与台积电合作,都凸显出为满足客户特定需求的策略。转为定制化不仅解决供过于求问题,生产也能与客户需求保持一致,确保 HBM 市场能更稳定发展。

来源:新浪财经

相关推荐