ASIC:AI计算领域的璀璨之星与博通的万亿之路

360影视 2024-12-16 17:57 4

摘要:ASIC 即专用集成电路(Application Specific Integrated Circuit),是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。它与通用芯片有着明显的区别,通用芯片如 CPU、GPU 等,被设计为可以执行多种任务,适用

ASIC 即专用集成电路(Application Specific Integrated Circuit),是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。它与通用芯片有着明显的区别,通用芯片如 CPU、GPU 等,被设计为可以执行多种任务,适用于广泛的应用场景;而 ASIC 是为了满足特定应用场景的需求进行定制化设计的,从电路设计、物理布局到布线等环节,都是围绕特定功能展开的。

例如在比特币挖矿领域,挖矿算法具有单一、重复性极强、运算量巨大的特点,ASIC 芯片就能很好地契合这些特性。像比特大陆的矿机,其加速器(矿机 ASIC)采用最新技术,使用 16nm 工艺实现,一台蚂蚁矿机 S9 就要使用 189 个 ASIC 芯片,相比之前的 CPU、GPU 以及 FPGA 挖矿方式,ASIC 矿机芯片执行速度更快,大规模部署生产的成本也更为低廉,展现出了强大的优势。

ASIC 的特点众多,首先它面向特定用户的需求,具有很强的针对性。品种多、批量少是其常见的生产模式,不过要求设计和生产周期相对较短,以便能快速响应特定市场的需求。与通用集成电路相比,ASIC 具备多方面的优势,在批量生产时,它可以实现体积更小的目标,像手机的 SoC 芯片作为一种 ASIC 芯片,使得手机内部的电路布局更加紧凑,减少了空间占用;功耗方面也更低,对于一些依靠电池供电的设备来说,低功耗的 ASIC 芯片能显著延长续航时间,比如在一些物联网的边缘设备中,ASIC 芯片可以凭借低功耗的特性长期稳定工作;可靠性上,由于是专门针对特定功能优化设计,其运行的稳定性和可靠性得以提高,出现故障的概率相对更低;性能上,能够根据具体任务进行定制优化,处理特定任务时的性能表现更为出色;保密性方面,因为是定制化设计,外人很难完全掌握其内部逻辑和算法,保密性得以增强;从成本角度来看,虽然前期研发、设计以及制造成本较高,但如果后期出货量可观,那么单位成本就能够有效降低,实现成本优势。

总之,ASIC 芯片凭借这些特点,在众多特定应用领域发挥着不可替代的作用,也为其在 AI 计算领域大展身手奠定了基础。

AI 计算涵盖了训练和推理等多个关键环节,这些环节对于芯片有着很高的要求。

在训练环节,需要构建复杂的神经网络模型,这往往涉及对海量数据的处理以及大量的计算操作,因此对芯片的算力要求极高。例如像 GPT-3 这样的大模型,其参数量达到 1750 亿,训练所需的 Token 数量在千亿量级,对应超过 350GB 的 GPU 显存需求。假设参数规模与所需显存呈线性关系,且推理的中间参数量按 1 倍估算,那么万亿参数规模的大模型推理需要约 4000GB 显存,可见训练过程中要处理的数据量和计算量是极其庞大的,芯片必须具备强大的算力才能支撑起这样的训练任务。

同时,能耗也是一个重要考量因素。由于训练过程需要长时间、高强度的运算,如果芯片能耗过高,不仅会带来高昂的用电成本,对于一些数据中心等大规模部署的场景来说,散热等配套设施的压力也会剧增。像 GPU 虽然算力强大,但本身功耗相对较高,在大规模集群训练时,能耗问题就较为突出。

效率方面,训练过程需要芯片能够快速地完成各种复杂的数学运算以及数据的读写等操作,并且要保证在处理大量并行计算任务时的高效性,避免出现计算瓶颈,拖慢整个训练的进度。

而在推理环节,注重的是综合指标,单位能耗算力、时延、成本等都需要兼顾。推理通常是利用训练好的神经网络模型进行运算,利用输入的新数据来一次性获得正确结论,比如在智能驾驶领域,车辆需要实时对道路、行人、红绿灯等路况和交通状况进行识别并做出判断,这就要求推理芯片能快速给出结果,也就是时延要低;并且在车载这种依靠电池供电且空间有限的环境下,低功耗和低成本也是至关重要的。

目前常见的芯片类型,在应对 AI 计算这些需求时,或多或少存在一些不足。通用的 CPU 虽然通用性强,能灵活处理各种类型的通用计算与控制任务,但在面对 AI 计算这种大量并行计算需求时,效率偏低,算力提升相对有限,很难满足如今 AI 大模型训练和推理的高效要求。GPU 尽管有着强大的并行算力能力,是目前云端 AI 训练应用的首选,在兼顾通用性和高算力的同时,还具有完善的软件生态便于开发,但它的功耗高、体积大、价格贵等缺点也限制了其在更多场景下的应用,特别是在一些对成本和功耗敏感的边缘端设备中,GPU 的适用性就大打折扣。FPGA 作为一种半定制化芯片,功能可以通过编程来修改,并行计算能力也较强,延迟和功耗远低于 GPU,不过其一次性成本虽然低,但量产成本很高,而且开发门槛相对较高,对于一些需要快速量产且成本控制严格的应用场景来说,不太容易满足需求。

正是因为现有芯片在 AI 计算需求面前存在这些局限,而 ASIC 芯片凭借其可定制化的特点,能够针对 AI 计算的训练、推理等环节进行专门的优化设计,在算力、能耗、效率等方面做到很好的平衡,所以在 AI 计算领域迎来了广阔的发展机遇,有望在未来成为满足 AI 计算需求的核心芯片类型之一。

在 AI 计算领域,芯片的性能至关重要,而 ASIC 在与 CPU、GPU、FPGA 等芯片对比中,展现出了显著的性能优势。

首先,从吞吐量方面来看,以谷歌的 TPU(张量处理单元)为例,这是 ASIC 在 AI 计算应用中的典型代表。TPU 在处理深度学习任务时,其吞吐量表现极为出色。在一些图像识别、语音识别等 AI 应用场景中,需要对大量的数据进行快速处理,TPU 相比同时期的 GPU 或 CPU,在数据的处理速度上有着明显优势。例如在运行一些成熟的 AI 算法,像基于 CNN 卷积网络的图像识别算法时,如果将 TPU 与传统的 CPU 对比,TPU 的吞吐量能够达到 CPU 的数十倍甚至更高。因为 CPU 的架构设计初衷是为了应对通用的、复杂多样的计算任务,其采用的是串行运算方式,一次只能进行一项计算任务,在面对 AI 计算这种需要大规模并行处理数据的场景时,就显得力不从心,而 TPU 则是专门针对这类矩阵或向量乘法、加法等大量重复的 AI 计算任务进行优化设计,能实现更高的数据吞吐量。

再看算力水平,同样是谷歌的 TPU,对比 GPU 来说,平均能实现 15 - 30 倍的提速。比如在训练一个中等规模的深度学习模型时,若使用 GPU 集群可能需要花费数天时间,而采用 TPU 芯片进行加速,这个时间可以大幅缩短,可能仅需一天左右甚至更短时间就能完成训练任务。这是因为 GPU 虽然具备并行计算能力,但其内部仍有一部分空间被用于控制逻辑等其他功能,并非完全专注于 AI 计算相关的算力提升;而 ASIC 芯片如 TPU,可以将更多的电路资源、芯片面积等都投入到提升算力的模块设计上,针对 AI 算法的特点,从底层的电路结构到上层的逻辑架构,都进行了定制优化,从而实现了更高的算力水平,能更高效地处理那些复杂的神经网络计算任务。

此外,在一些特定的 AI 应用场景下,比如实时性要求极高的智能驾驶领域,车辆需要瞬间对道路上的行人、车辆、交通标识等多个元素进行识别和判断,这就要求芯片能够快速给出计算结果。ASIC 芯片凭借其高性能优势,可以在极短的时间内完成相应的推理计算,保障智能驾驶系统的实时响应能力,避免因为计算延迟而导致的安全隐患。而像 FPGA 芯片,虽然也具备一定的并行计算能力和灵活性,但在算力的极致提升上,相较于 ASIC 还是稍显逊色,并且在处理大规模、重复性高的 AI 计算任务时,效率也不如 ASIC 芯片。

总之,通过这些实际的案例和对比可以看出,ASIC 芯片在吞吐量、算力水平等关键性能指标方面,相对于传统的 CPU、GPU 以及 FPGA 等芯片,有着突出的优势,这也使其在未来的 AI 计算领域中极具竞争力,有望成为推动 AI 技术进一步发展的核心芯片类型之一。

在 AI 计算的应用场景中,功耗和成本是两个不得不考量的重要因素,而 ASIC 芯片在这两方面都有着独特的优势。

从功耗角度来看,ASIC 芯片表现出了相对较低的能耗特性。例如在数据中心进行大规模 AI 训练或推理任务时,如果采用 GPU 集群,由于 GPU 本身功耗较高,像英伟达的一些高端 GPU,单卡功耗可能就在 250 - 400 瓦之间,当大量部署时,整个机柜的功耗会轻松超过几十千瓦,这就需要数据中心配备强大的供电系统以及复杂的散热设施,比如将风冷散热升级为水冷散热,无疑增加了数据中心的建设成本和运营成本。而 ASIC 芯片,以一些应用于特定 AI 任务的定制芯片为例,它们在执行相同的 AI 计算任务时,功耗可能仅为 GPU 的几分之一甚至更低。像 Semtech 推出的 BlueRiver 平台的 ASIC 芯片,其功耗仅为与之对比的 FPGA 芯片的三分之一。这是因为 ASIC 是针对特定的功能和应用进行设计优化的,在电路布局、晶体管使用等方面,可以做到精准地根据任务需求来配置资源,避免了不必要的功耗浪费,从而实现在完成计算任务的同时,最大程度地降低能耗,尤其适用于那些对功耗敏感的应用场景,比如在依靠电池供电的边缘计算设备、物联网终端设备等中,低功耗的 ASIC 芯片能够保障设备长时间稳定运行,减少充电或更换电池的频次。

从成本效益方面考虑,尽管 ASIC 芯片前期的研发、设计以及制造成本较高,需要投入大量的人力、物力和时间进行定制化开发,但是一旦进入大规模生产阶段,其单位成本会显著降低。这是由于在长期生产过程中,那些高昂的非经常性工程费用(如设计费用、制造模具费用等)可以分摊到每个单独的芯片上。比如一款用于手机的 ASIC 芯片,当这款手机的销量达到一定规模后,分摊到每一部手机中的芯片成本就变得较为低廉了。再以 AI 计算领域为例,如果某家企业针对自身特定的 AI 业务场景定制了一款 ASIC 芯片,当该业务有着较大的市场规模和稳定的需求时,随着生产数量的增加,芯片的单位成本会不断下降,从长期来看,相较于不断采购价格相对较高的 GPU 或者 FPGA 芯片(特别是 FPGA 芯片在量产时成本较高),ASIC 芯片在成本效益上的优势就会逐渐凸显出来。

实际案例中,利亚德的黑钻系列 Micro LED 采用了 ASIC 显控技术,不仅功耗降低了 27%,而且成本与金线灯小间距产品相当,实现了在降低能耗的同时控制成本的目标。还有在一些超高清影音播放的应用场景中,原本采用 FPGA 方案成本较高且功耗大,而采用 ASIC 方案后,整体成本降低为之前方案的二分之一,同时功耗也大幅下降,使得产品在市场上更具竞争力。所以,综合来看,ASIC 芯片在功耗和成本方面的优势,使其在 AI 计算以及众多特定应用领域中,成为了一种极具性价比的芯片选择方案。

ASIC 芯片因专为特定任务定制的这一特性,使其在如边缘计算、云端推理等特定应用场景下,展现出了很强的适应性优势,能更好地贴合不同企业、不同业务场景的需求。

在边缘计算场景中,设备通常更加靠近应用现场,需要对实时采集的数据进行快速处理和分析,并且受到设备自身功耗、体积以及成本等多方面的限制。例如在智能安防领域,监控摄像头需要实时对拍摄画面中的人员、物体等进行识别判断,这就要求芯片具备低时延、低功耗以及较高的算力利用率等特点。ASIC 芯片可以根据智能安防这一特定任务进行定制化设计,将资源精准地投入到与图像识别、行为分析等相关的计算功能模块上,在有限的芯片面积和功耗预算内,实现高效的计算性能。与通用的 CPU 相比,CPU 虽然通用性强,但在面对这种特定的 AI 计算任务时,其算力利用效率较低,无法很好地满足实时性要求;而 GPU 虽然算力强大,但功耗较高且成本也相对较高,对于边缘端这种对成本和功耗敏感的设备来说不太适用;FPGA 虽然灵活性好,但在量产成本以及针对特定任务的性能优化上,也不如 ASIC 芯片。ASIC 芯片能够在边缘计算设备中,凭借其定制化优势,快速准确地完成如目标检测、异常行为预警等计算任务,为智能安防系统提供有力的算力支持。

在云端推理方面,同样对芯片有着特殊的要求。云端需要处理来自众多用户的大量请求,并且要在短时间内给出推理结果,这就需要芯片在单位能耗算力、时延、成本等多个指标上达到较好的平衡。以电商平台的商品推荐系统为例,系统需要根据用户的浏览历史、购买行为等数据,实时为用户推荐可能感兴趣的商品,这涉及到复杂的数据分析和深度学习模型的推理计算。ASIC 芯片可以针对该电商平台的推荐算法特点进行定制,优化芯片内部的计算逻辑和存储结构,提高在该特定推理任务下的算力利用率,相比通用的 GPU 等芯片,能够在保证推理准确性的同时,降低时延,提高系统的响应速度,提升用户体验。同时,从成本角度来看,大规模部署在云端的数据中心中,ASIC 芯片随着产量的增加,单位成本不断下降,也有助于降低整个云端推理系统的建设和运营成本。

而且不同企业有着不同的业务需求,例如一家专注于医疗影像识别的企业,其 AI 计算任务主要围绕对 X 光、CT 等影像数据进行病变特征的识别分析,ASIC 芯片就可以根据该企业所采用的特定影像识别算法和数据特点进行定制,精准地提升在这类医学图像数据处理上的计算性能,与企业的业务流程高度契合。而对于一家从事自动驾驶技术研发的企业,ASIC 芯片又可以根据车辆行驶过程中环境感知、路径规划等不同环节的 AI 计算需求进行定制化开发,满足其在复杂路况下实时、准确进行决策的要求。

总之,ASIC 芯片凭借专为特定任务定制的优势,在各类特定的 AI 计算应用场景中,能够更好地满足不同企业多样化的业务需求,实现算力的高效利用,进而在未来的 AI 计算领域占据重要的一席之地。

博通(Broadcom)作为全球知名的半导体企业,在 ASIC 芯片领域有着深厚的积淀与广泛的影响力。在芯片研发方面,博通投入了大量的资源,汇聚了众多顶尖的专业人才,不断探索先进的芯片设计技术,致力于提升 ASIC 芯片的性能与功能,以满足不同客户多样化的需求。

其生产能力同样不容小觑,拥有先进且高效的生产制造流程,能够确保芯片的高质量量产。例如,在制程工艺上,博通紧跟行业前沿,运用先进的纳米制程技术,为芯片的高性能表现奠定基础。

在合作方面,博通更是有着亮眼的成绩。自 2016 年起,便与谷歌建立了紧密的合作关系,共同参与研发谷歌的 TPU(张量处理单元)人工智能加速芯片以及 AI 训练 / 推理加速库。谷歌的 TPU 作为专为深度学习等 AI 任务定制的芯片,在 AI 计算领域发挥着重要作用,而博通在其中扮演了核心参与力量,不仅参与芯片的设计,还提供了关键的芯片间互联通信知识产权,并负责制造、测试和封装新芯片等关键步骤,为谷歌拓展新的 AI 数据中心保驾护航。据相关数据显示,谷歌每年向博通支付的 TPU 费用呈现逐年递增的态势,2023 年达到了 35 亿美元,2024 年预计将达到 70 亿美元,足以见得双方合作的紧密程度以及合作项目的规模之大。

除了谷歌之外,博通的客户群体遍布各行各业,像 Meta(原 Facebook)、微软、苹果、思科、富士通、爱立信、诺基亚、HPE、NEC、瞻博网络、Ciena、大众和西部数据等都是其重要的合作伙伴。以 Meta 为例,摩根大通分析师预计 Meta 在未来三四年内每年将在博通芯片上花费约 10 亿美元,使其成为仅次于谷歌的重要客户。Meta 此前与博通共同设计了第一代和第二代 AI 训练加速处理器,并且预计博通将在 2024 年下半年以及 2025 年加快研发 Meta 下一代 AI 芯片 MTIA 3。

在市场份额上,博通在 ASIC 市场占据着重要地位。据相关统计,博通和另一家企业 Marvell 作为 ASIC 市场的领先者,占据了超过 60% 的市场份额,其中博通更是以 55 - 60% 的份额位居第一,彰显出其在该领域强大的竞争力。

博通此次股价大涨并成功加入万亿市值俱乐部,背后有着多方面深层次的推动因素。

首先,其定制 AI 芯片业务的蓬勃发展是关键所在。近年来,随着人工智能技术的迅猛发展,全球科技巨头们纷纷投身于一场激烈的 “AI 算力竞赛” 之中,对高性能的 AI 芯片需求呈现出井喷式增长。博通凭借其在 ASIC 芯片领域的深厚技术积累以及丰富的研发经验,精准地抓住了这一市场机遇,为众多大客户定制开发满足其特定 AI 计算需求的芯片。例如,为谷歌定制的 TPU 芯片,能够针对深度学习任务进行高度优化,在吞吐量、算力水平等方面相较于传统的通用芯片有着显著优势,从而大大提升了 AI 计算的效率。

这种定制 AI 芯片业务为博通带来了极为可观的营收增长。从数据来看,2024 财年,博通的 AI 收入同比增长 220% 至 122 亿美元,直接驱动了半导体业务的收入创新高至 301 亿美元,可见定制 AI 芯片在其整体营收中所占的重要分量。而且,博通首席执行官 Hock Tan 表示,公司预测到 2027 财年,其为数据中心运营商设计的人工智能组件的潜在市场规模将高达 600 亿至 900 亿美元,这无疑进一步彰显了其定制 AI 芯片业务未来广阔的增长空间,也让投资者对其前景充满信心。

在 AI 算力竞赛的大背景下,英伟达凭借其 GPU 在 AI 计算领域长期占据着主导地位,不过随着企业对 AI 计算需求的日益多样化以及对成本效益等方面的考量,越来越多的科技公司希望实现 AI 处理器的多元化,降低对英伟达的依赖,进而寻求更贴合自身业务场景的定制芯片解决方案。博通正是凭借其 ASIC 芯片可定制化的特点,针对不同客户在 AI 算力方面的独特需求,提供高性能、低功耗且成本合理的定制芯片,满足了如谷歌、Meta 等巨头在构建 AI 数据中心、开展 AI 应用研发等方面的算力需求,从而获得了市场的高度青睐,在众多半导体企业中脱颖而出,其股价也随之水涨船高,一举突破万亿市值。

博通现有的主要客户涵盖了全球众多科技巨头,像谷歌、Meta、微软等,这些合作关系为博通带来了显著的收益,同时也为其未来的市场发展奠定了坚实基础。

以谷歌为例,双方长达约 10 年的合作,已经共同设计了六代 TPU,并正在推进第六代 TPU(3nm 工艺)的量产,且有望继续合作推出第七代 TPU。通过与谷歌的合作,博通不仅在技术研发上不断精进,更在 AI 芯片领域树立了良好的口碑和标杆案例,吸引了更多潜在客户的关注与合作意向。而 Meta 与博通同样有着紧密的合作,共同设计研发 AI 芯片,其第一代和第二代 AI 训练加速处理器就是双方合作的成果,并且未来在下一代 AI 芯片 MTIA 3 的研发上也在持续推进,这一系列合作使得博通在定制 AI 芯片市场不断拓展份额。

从收益角度来看,这些合作项目为博通带来了可观的经济回报。据相关分析师预测,仅谷歌每年支付给博通的 TPU 费用就逐年攀升,未来几年内 Meta 在博通芯片上的花费也将达到每年约 10 亿美元的规模,再加上其他众多客户的合作项目,共同支撑起了博通在定制 AI 芯片业务上的营收增长。

展望未来市场规模,博通对 2027 年定制 AI 芯片市场需求规模有着积极的预估。博通首席执行官 Hock Tan 表示,预计 2027 年市场对定制款 AI 芯片的需求规模为 600 亿至 900 亿美元,这一预测是基于其现有的三个超大规模客户(包括谷歌和 Meta 等)可能部署的数百万个 AI 芯片集群的潜在需求。并且,如果博通能够赢得微软、亚马逊等其他潜在超大规模客户的业务,这一数字还有望进一步上升。

目前,全球科技行业对 AI 的投入持续加大,越来越多的企业意识到 AI 算力在提升竞争力方面的关键作用,对定制 AI 芯片的需求将不断增长。而博通凭借其在 ASIC 定制芯片领域的领先技术、丰富经验以及良好的客户合作基础,有望在未来的定制 AI 芯片市场中占据更大的份额,持续拓展业务版图,实现更高的营收增长,进一步巩固其在全球半导体行业,尤其是 AI 芯片领域的重要地位。

随着人工智能技术的蓬勃发展,ASIC 芯片在 AI 计算领域的市场规模正呈现出迅猛的增长态势。据相关市场预测显示,到 2028 年,AI ASIC 芯片的市场规模有望突破 400 亿美元,年复合增长率高达 45%,这一数据充分彰显了其广阔的市场前景。

从目前的发展趋势来看,越来越多的行业和企业对 AI 计算的需求在不断攀升,例如在云计算领域,云厂商们为了更好地满足海量用户的数据处理和 AI 应用需求,对于高性能、低功耗且具备成本优势的 ASIC 芯片的采购量在逐年增加;在智能安防、智能驾驶等行业应用端,针对特定场景的 AI 计算任务,定制化的 ASIC 芯片也成为了首选。像谷歌的 TPU 芯片,随着其技术不断迭代更新,应用范围也在持续扩大,从最初服务于谷歌自身的 AI 业务,到如今也在对外输出其算力优势,助力其他企业开展 AI 相关的研发与应用,这也在一定程度上推动了整个 ASIC 芯片市场规模的增长。

而且,全球众多科技巨头纷纷加大在 AI 领域的投入,不断探索如何利用 ASIC 芯片来提升自身的 AI 计算能力,加速业务的智能化转型,这无疑为 ASIC 芯片在 AI 计算领域的市场扩张注入了强大动力。可以说,无论是从市场需求的增长、应用场景的拓展,还是科技巨头们的积极布局等方面来看,未来 ASIC 芯片在 AI 计算领域的市场规模都有望持续扩大,成为推动 AI 技术发展的关键力量之一。

尽管 ASIC 芯片在 AI 计算领域有着诸多优势,但也面临着一些不容忽视的挑战。首先,ASIC 芯片的开发周期相对较长,一款 ASIC 芯片从最初的需求分析、电路设计,到后续的制造、测试等环节,往往需要耗费较长时间,这就导致其很难快速响应市场上瞬息万变的需求。例如,一些新兴的 AI 应用场景可能突然出现,如果采用 ASIC 芯片来提供算力支持,可能会因为开发周期的问题而错过最佳的市场时机。

其次,ASIC 芯片缺乏灵活性也是一大劣势。由于它是为特定任务定制化设计的,一旦设计完成并投入生产,芯片内部的功能和逻辑就很难再进行更改,不像 FPGA 芯片那样可以通过编程灵活地修改功能来适应不同的计算任务。比如在科研领域,当研究人员需要对 AI 算法进行频繁调整和优化时,ASIC 芯片可能就无法很好地满足这种多变的需求。

不过,行业内也在积极探索相应的应对策略。一方面,“轻设计” 模式逐渐兴起,这种模式强调在保证满足核心需求的前提下,简化设计流程,减少不必要的设计环节,从而缩短开发周期。例如一些专注于特定细分领域 AI 计算的企业,通过复用已有的成熟电路模块,结合少量的针对性设计,快速推出 ASIC 芯片产品,以抢占市场先机。

另一方面,在提升灵活性方面,有企业开始尝试在 ASIC 芯片中预留一定的可配置空间或者采用模块化的设计思路,使得芯片在一定程度上能够进行功能的微调或扩展,以应对一些可能出现的任务变化。同时,软件层面的优化也在同步进行,通过开发更加智能、灵活的软件算法,来弥补 ASIC 芯片硬件灵活性不足的问题,让芯片在不同的 AI 计算任务中都能发挥出较好的性能表现。

ASIC 芯片在 AI 计算领域的崛起正深刻改变着现有的 AI 芯片市场格局。过去,GPU 凭借其强大的并行计算能力,在 AI 计算尤其是深度学习模型的训练环节占据着主导地位,几乎成为了 AI 计算的代名词。然而,随着 ASIC 芯片的不断发展和应用,其对 GPU 的主导地位发起了有力冲击。

在产业链上游,对于芯片设计企业来说,ASIC 芯片的兴起促使它们加大在定制化设计方面的投入,不断挖掘不同行业、不同应用场景下的 AI 计算需求特点,研发出更具针对性的芯片产品,像博通与谷歌等众多科技巨头的合作,就是基于对 AI 计算特定需求的洞察,共同打造出高性能的 ASIC 芯片,这也使得芯片设计领域的竞争更加多元化。而在芯片制造环节,为了满足 ASIC 芯片对于高精度制程工艺等要求,制造企业也在不断进行技术升级和产能扩充,以应对日益增长的订单需求。

在产业链下游,对于那些应用 AI 技术的企业而言,ASIC 芯片提供了更多的选择。例如在电商行业,企业可以通过定制 ASIC 芯片来优化商品推荐系统的推理计算,提高推荐的精准度和实时性;在医疗影像诊断领域,ASIC 芯片能够针对影像数据的处理进行专门优化,更快更准确地帮助医生发现病变特征。但同时,这也对企业的技术选型和应用能力提出了挑战,需要企业深入了解自身的 AI 计算需求以及 ASIC 芯片的特点,才能更好地进行适配和应用。

此外,ASIC 芯片的广泛应用还推动了 AI 技术在更多领域的落地和发展。以往一些因为算力成本、功耗等因素限制而难以开展大规模 AI 应用的场景,如今借助 ASIC 芯片的优势得以实现智能化升级。比如在物联网的边缘设备中,低功耗的 ASIC 芯片使得设备能够在本地进行高效的 AI 计算,无需将大量数据传输到云端,既降低了数据传输成本,又提高了响应速度,进一步拓展了 AI 技术的应用边界,让 AI 真正融入到人们生活和生产

来源:TALK潘

相关推荐