摘要:红帽公司近期揭晓了其最新力作——红帽AI推理服务器,该产品旨在混合云环境中为用户提供兼具高效与经济性的AI推理解决方案。通过融合尖端的vLLM技术和Neural Magic的创新优势,红帽力图在响应速度和性能表现上为用户带来显著提升。
红帽公司近期揭晓了其最新力作——红帽AI推理服务器,该产品旨在混合云环境中为用户提供兼具高效与经济性的AI推理解决方案。通过融合尖端的vLLM技术和Neural Magic的创新优势,红帽力图在响应速度和性能表现上为用户带来显著提升。
这款专为高性能打造的开放推理解决方案,内置了一系列尖端的模型压缩与优化工具。红帽将vLLM的前沿创新与其企业级能力巧妙结合,赋予用户多样化的部署灵活性。用户不仅可以选择将其作为独立的容器化产品部署,还能轻松将其与红帽企业Linux(RHEL AI)和红帽OpenShift AI集成。
红帽AI推理服务器能够在不同部署环境中为用户提供经过强化的vLLM发行版。其核心功能之一是智能LLM压缩工具,该工具能大幅缩减基础AI模型和微调AI模型的大小,同时确保模型准确性不受影响,并最大限度降低计算资源消耗。红帽还提供了一个经过优化的模型存储库,该存储库托管在红帽AI组织的Hugging Face平台上,用户可即时访问经过验证的AI模型。这些优化后的模型在推理部署中能显著提升效率,效率提升幅度可达2至4倍,且不影响模型准确性。
红帽凭借多年将社区项目推向生产环境的丰富经验,为用户提供强大的企业支持。同时,红帽AI推理服务器还支持在非红帽Linux和Kubernetes平台上的灵活部署,为用户在选择部署环境时提供了更多自由。
红帽AI业务部门副总裁Joe Fernandes指出:“推理是生成式AI的核心价值所在,它使模型在用户互动时能迅速给出准确回应。我们的目标是高效且经济地满足大规模推理需求。”红帽AI推理服务器的推出,为用户提供了一个通用的推理层,支持在不同环境中运行各类加速模型。
来源:ITBear科技资讯