灵雀云基于海光DCU深度接入DeepSeek,加速开启AI基础设施新时代

360影视 2025-02-09 17:42 3

摘要:近期,国内AI领域迎来里程碑事件——DeepSeek大模型引发广泛关注,相关话题冲上微博热搜,被媒体誉为“中国AI崛起”的标志性成果。在这一背景下,灵雀云正式宣布深度接入DeepSeek大模型生态,携手海光DCU,共同推动AI基础设施的全面升级。

近期,国内AI领域迎来里程碑事件——DeepSeek大模型引发广泛关注,相关话题冲上微博热搜,被媒体誉为“中国AI崛起”的标志性成果。在这一背景下,灵雀云正式宣布深度接入DeepSeek大模型生态,携手海光DCU,共同推动AI基础设施的全面升级。

在海光信息“深算智能”战略的推动下,此次合作不仅是技术层面的突破,更是中国AI产业迈向自主可控、高效创新的关键一步。

为企业构建自主可控AI基座

为打破对外部技术的依赖,中国企业亟需构建高效、安全的AI基础设施。灵雀云基于全栈云原生能力,推出面向AI场景的智能计算平台AML(Alauda Machine Learning),以“统一平台、自主可控”为理念,提供从算力管理到模型落地的端到端解决方案,助力金融等行业智能化转型。

1. 四大核心能力,赋能AI全生命周期

GPU算力管理:支持主流的X86和国产服务器架构,适配多种主流GPU加速硬件。通过GPU插件实现Kubernetes集群内GPU资源的虚拟化,统一管理底层AI算力资源。

AI任务调度:提供云原生调度层,支持多种调度算法,满足机器学习、深度学习、大数据应用、科学计算等多种高性能工作负载的调度需求。

MLOps全流程支持:集成多种传统机器学习和深度学习框架,支持自定义框架,实现一站式开发、训练、部署流程。配备模型解释工具,便于用户深入理解和优化模型。

LLMOps深度优化:专为大模型场景设计,覆盖模型存储、微调、Prompt工程等全流程,简化大模型应用的开发与运维复杂度。

2.资源、效率与安全的全面升级

资源利用率提升30%:通过GPU虚拟化与RDMA技术,实现多业务共享算力,减少资源碎片化。开发效率倍增:一站式平台简化AI开发流程,运维成本降低50%,加速金融业务创新。100%自主化兼容:支持ARM/X86架构,高度适配海光DCU,确保数据安全与业务连续性。

深度接入DeepSeek,释放国产大模型潜能

灵雀云ACP平台针对DeepSeek大模型特性进行了深度优化:

支持场景化开发:提供模型发布、数据标注、微调及Prompt工程的可视化界面,帮助企业快速定制贴合自身需求的大模型应用。高效利用海光DCU算力:结合海光DCU的硬件优势,优化分布式训练任务调度,提升计算资源利用率,降低企业AI开发成本。全流程闭环管理:从模型训练到推理部署,支持端到端生命周期管理,确保业务场景快速落地。

灵雀云×海光DCU:全栈技术整合,打造坚实的AI基础设施

1. 技术整合

方案实现从硬件到软件的全栈技术整合,深度优化了底层硬件驱动与计算框架,并兼容市面上常见的深度学习框架和机器学习框架。通过计算整合,方案显著降低了 AI 技术的应用门槛。

2. 性能提升

方案结合 vDCU 虚拟化技术、RDMA 网卡和高性能存储等技术,实现了计算性能的显著提升,能够更好地满足高负载场景下的性能需求。

3. 生态开放

与传统机器学习平台不同,方案不绑定业务算法模块,而是提供了算法模板、框架和开发环境的多种扩展性,能够更好地应对多样化的应用场景。

自主可控,共赢未来

在AI技术浪潮中,灵雀云与海光DCU的深度合作,标志着中国AI基础设施已具备“全栈自主、高效可控”的核心能力。未来,双方将持续深化技术融合,携手行业伙伴共建开放生态,加速AI技术从“可用”到“好用”的跨越,为全球AI发展注入中国智慧。

来源:动点科技

相关推荐