Nvidia和AWS联手加速云端AI部署
此次的更新包括Nvidia NIM微服务已经在各种AWS AI服务上可用,将为AI开发人员提供更快的推理速度和更低的延迟,此外还推出了Nvidia的DGX Cloud on AWS,以及AI领域的其他各项发展成果。
此次的更新包括Nvidia NIM微服务已经在各种AWS AI服务上可用,将为AI开发人员提供更快的推理速度和更低的延迟,此外还推出了Nvidia的DGX Cloud on AWS,以及AI领域的其他各项发展成果。
NVIDIA NIM™ 是 NVIDIA AI Enterprise 的一部分,是一套易于使用的预构建容器工具,目的是帮助企业客户在云,数据中心和工作站上安全,可靠地部署高性能的 AI 模型推理。它支持各种 AI 模型,包括开源社区模型和 NVIDIA AI
亚马逊网络服务(AWS)在年度AWS re:Invent大会上宣布扩大与英伟达的合作,已将NVIDIA NIM微服务扩展到关键AWS AI服务中,以支持生成式AI应用更快的AI推理和更低的延迟。
经过优化的 NIM 微服务现可在 Amazon Bedrock Marketplace、SageMaker JumpStart 和 AWS Marketplace 上获取,用于各种 NVIDIA 和生态系统模型。