芯原GPGPU-AI计算IP:为汽车与边缘服务器带来高性能AI加速新体验

360影视 欧美动漫 2025-06-10 17:35 2

摘要:芯原股份近期揭晓了其高性能GPGPU-AI计算IP的最新研发成果,为汽车电子与边缘服务器领域注入强劲动力。通过整合可编程并行计算与AI加速技术,这些IP能够在严格限制热耗与功耗的环境下,高效处理大语言模型推理、多模态感知及实时决策等复杂AI任务。

芯原股份近期揭晓了其高性能GPGPU-AI计算IP的最新研发成果,为汽车电子与边缘服务器领域注入强劲动力。通过整合可编程并行计算与AI加速技术,这些IP能够在严格限制热耗与功耗的环境下,高效处理大语言模型推理、多模态感知及实时决策等复杂AI任务。

芯原的GPGPU-AI计算IP以高性能GPGPU架构为基础,并融入专用AI加速器,专为AI应用提供卓越的计算效能。其可编程AI加速器与稀疏感知计算引擎,通过精密的调度策略,显著加速了Transformer等矩阵密集型模型的运算速度。同时,这些IP支持多种数据格式,包括INT4/8、FP4/8、BF16、FP16/32/64及TF32,并兼容3D堆叠内存、LPDDR5X、HBM、PCIe Gen5/Gen6和CXL等高带宽接口,确保数据传输的高效性。

芯原的GPGPU-AI计算IP具备出色的系统级可扩展性,支持多芯片与多卡扩展部署,满足大规模AI应用的部署需求。这些IP原生支持PyTorch、TensorFlow、ONNX和TVM等主流AI框架,覆盖从训练到推理的全过程,同时兼容GPCL通用计算语言及主流编译器,为大语言模型如DeepSeek等提供了强有力的算力支持。

芯原首席战略官戴伟进表示:“边缘服务器在推理与增量训练等场景下的AI算力需求正迅速增长,这对计算效率与架构可编程性提出了更高要求。我们的GPGPU-AI计算处理器实现了GPGPU通用计算与AI加速器的深度融合,通过细粒度的协同工作,展现出卓越的性能。这一优势已在多个高性能AI计算系统中得到验证。”

戴伟进进一步指出:“DeepSeek等技术的最新突破,凸显了提升AI计算效率以应对复杂工作负载的重要性。我们的新一代GPGPU-AI计算IP已进行全面优化,能够高效支持专家混合(MoE)模型,并显著提升核间通信效率。通过与多家领先AI计算客户的紧密合作,我们优化了处理器架构,充分利用3D堆叠存储技术提供的带宽优势。未来,我们将继续与生态合作伙伴携手,推动这些先进技术在更多实际应用中落地。”

芯原微电子(上海)股份有限公司(芯原股份)是一家专注于提供平台化、全方位、一站式芯片定制服务与半导体IP授权服务的企业。公司拥有自主可控的GPU IP、NPU IP、VPU IP、DSP IP、ISP IP及Display Processing IP等六大处理器IP,以及超过1600个数模混合IP和射频IP。

基于自有IP,芯原已开发出丰富的面向AI应用的软硬件芯片定制平台解决方案,涵盖智能手表、AR/VR眼镜等轻量化空间计算设备,AI PC、AI手机、智慧汽车、机器人等高效端侧计算设备,以及数据中心/服务器等高性能云侧计算设备。

为顺应大算力需求推动的SoC向SiP发展趋势,芯原正积极践行“IP芯片化(IP as a Chiplet)”、“芯片平台化(Chiplet as a Platform)”和“平台生态化(Platform as an Ecosystem)”的理念,从接口IP、Chiplet芯片架构、先进封装技术、AIGC及智慧出行解决方案等方面,持续推进Chiplet技术的研发与产业化。

依托独特的芯片设计平台即服务(Silicon Platform as a Service, SiPaaS)经营模式,芯原的业务已广泛覆盖消费电子、汽车电子、计算机及周边、工业、数据处理、物联网等领域,主要客户包括芯片设计公司、IDM、系统厂商、大型互联网公司及云服务提供商等。

自2001年成立以来,芯原总部位于中国上海,已在全球设立了8个设计研发中心及11个销售和客户支持办事处,员工总数超过2000人。

来源:ITBear科技资讯

相关推荐