摘要:AI 正在推动基础设施支出的爆炸性增长。虽然支持 GPU 的计算可能成为头条新闻,但数据管理和存储对于企业最终能否从 AI 投资中实现价值并推动更广泛的转型努力也至关重要。
AI 正在推动基础设施支出的爆炸性增长。虽然支持 GPU 的计算可能成为头条新闻,但数据管理和存储对于企业最终能否从 AI 投资中实现价值并推动更广泛的转型努力也至关重要。
根据 IDC 的预测,全球 AI 基础设施市场预计到 2027 年将达到 1000 亿美元。服务器预计将占据这些支出的大部分,但随着技术领导者为 AI 所需的海量数据集以及训练、检查点和推理数据存储库提供支持,存储投资也在随整体增长而增加。
HPE 存储部门高级副总裁兼总经理 Jim O'Dorisio 解释说,虽然 AI 推动了这轮支出热潮,但 CIO 面临的许多基本挑战并没有改变。这些挑战包括推动创新、精简运营和降低总运营成本,而这一切都发生在不断发展的技术和商业环境中。
数据以及存储都在其中发挥作用。AI 依赖数据。但企业经常进行的其他传统业务也同样依赖数据。O'Dorisio 表示,关键是要在正确的时间,以正确的速度,将正确的数据提供给正确的系统。
"如果回顾 15 年前、10 年前,存储仅仅是数据存放的地方。而现在,它越来越成为我们创造价值的地方,"他解释道。
处理数据引力和位置问题特别具有挑战性,这种情况因客户 IT 环境范围更广、复杂性更高而加剧。例如,过去二十年见证了向云端的快速迁移。但现在许多企业开始思考他们实际上需要多少离场设施,特别是在管理所有需要通过 AI 实现价值的数据时。
这个决定可能取决于高于预期的成本,或者任何特定云服务提供商无法满足严格的组织性能或安全要求,尤其是对于实时和/或 AI 工作负载。IDC 指出,即使是云原生组织也开始质疑私有云或本地部署是否适合他们。
除了通过 AI 或其他高级应用程序创造价值之外,企业数据仍然需要得到保护和管理。网络威胁比以往任何时候都更加严重 – 威胁者本身也在积极利用 AI。
O'Dorisio 表示,网络安全挑战显然是最重要的问题之一,但数据回迁也带来了额外的混合复杂性。例如,还需要考虑可持续性。复杂系统需要能源来运行,数据应该得到高效管理。但底层存储也应该尽可能高效。这包括优化能源消耗,同时考虑过度配置和生命周期过短的影响。
这是一个遗留问题
对于组织的存储系统来说,关键问题在于它们是否能跟上变革的速度。答案往往是不能,原因有多个。
将计算和存储紧密绑定在一起的传统架构在扩展以满足日益复杂或大型工作负载时可能会带来问题。扩展存储容量可能意味着需要在实际并不需要的计算上投入支出,反之亦然。这可能导致为特定业务部门或工作负载,或特定位置(例如核心数据中心或边缘部署)建立系统孤岛。
同样,传统架构通常针对特定类型的存储:块存储、文件存储、对象存储。但 AI 并不区分数据格式。它通常想要处理所能获取的所有数据,无论数据在哪里。
这种缺乏灵活性的情况可能会因为专为特定类型组织或规模(如"企业"或中型企业)设计的遗留系统而加剧。整合一系列独立系统可能会带来明显的架构问题和管理挑战。
例如,不同的硬件通常意味着不同的管理系统和控制台,这导致管理者对其整体资产只能有一个零散的视图。这种情况可能迫使团队成员专注于组织基础设施的某个子集,这往往会导致效率低下和运营成本增加。
这些分散、孤立且通常难以扩展的系统不适合日益成为常态的混合运营。任何考虑将部分或全部数据回迁的组织可能都会因为失去在云中管理数据的便利性而犹豫不决。
O'Dorisio 解释说:"这些架构通常很复杂,而且是孤立的,这使得从数据中提取价值变得非常困难。"
价值在哪里?
HPE 通过其 HPE Alletra 存储 MP 平台来解决这些挑战。该架构将存储和计算分离,意味着两者可以独立扩展。因此,随着 AI 需求的增加,基础设施可以逐步扩展,避免了出现孤岛或浪费性过度配置的可能性。根据 HPE 的估计,这得到了 HPE Timeless 计划的支持,该计划确保免费、无中断的控制器更新,与标准的整体更换相比,可将总拥有成本降低 30%。
MP 代表多协议,具有针对特定应用程序优化的通用底层硬件。HPE 表示,HPE Alletra Storage MP B10000 通过 AI 驱动的云管理、分离式扩展和所有工作负载 100% 的数据可用性,实现了企业块存储的现代化。而 HPE Alletra Storage MP X10000 则是专门为智能高性能对象存储而构建的。其核心的 AMD EPYC 嵌入式处理器旨在提供可扩展的 X86 CPU 组合,在功耗优化的配置中提供最大性能和企业级可靠性。
即将发布的 X10000 系统将能够在存储数据时为数据添加标签和元数据。用户将能够添加向量嵌入和类似功能以支持下游生成式 AI RAG 管道。O'Dorisio 说:"我们的整体理念实际上是在数据存储时添加智能并创造价值,这显著减少了客户实现价值的时间。"结合 HPE Ezmeral Data Fabric 中的统一全局命名空间,客户可以从整个企业聚合数据以推动 AI 计划。
但是,即使技术领导者有充分的理由将部分甚至全部存储基础设施放在云之外,放弃云提供的易管理性也是一个更难说服的问题。HPE GreenLake 云应运而生,旨在提供单一的云操作模型来管理跨核心、边缘和云的整个存储资产。
现在,任何形式的 IT 运营中断,无论是由于灾难还是网络攻击,都被认为是不可避免的,而不是不幸。然而,通过利用 Zerto 勒索软件检测和恢复软件,O'Dorisio 说,组织"可以在几小时或几天内恢复,而不是在试图从云中恢复大量数据时可能需要几周或几个月。"
智能数据节省
O'Dorisio 补充说,这种智能的架构和所有权方法还通过减少过度配置和整体更换的需求,支持将相关排放减少一半。
HPE 自己的研究表明,HPE Alletra Storage MP 的分离式架构可以将存储成本降低多达 40%。更好的是,该公司计算,智能自助服务配置可以节省高达 99% 的运营时间。
最近,一家主要的全球电信提供商部署了 HPE Alletra Storage MP B10000 来更新其遗留存储阵列。HPE 表示,在此过程中,该公司大幅降低了与支持、能源和冷却以及数据中心空间相关的成本。
这一举措帮助降低了超过 70% 的运营支出,同时使该电信公司能够容纳更多的传统数据库和更现代的应用程序。更小占地面积下的增加存储容量意味着该电信提供商现在在其数据中心有空间容纳未来的增长。
这并不是说 AI 时代的存储不复杂。毕竟,正如 O'Dorisio 所说,"数据真正跨越了从私有到边缘再到公共云的范围。数据存在于所有这些环境中。数据更加异构。"
但在通用云管理架构上部署块存储、文件存储或对象存储服务意味着管理和提取这些数据的价值将变得更加容易和高效。
来源:至顶网