摘要:与传统的 AI 系统不同,AI 智能体可以采取自主行动,与工具、运行环境、其他智能体和敏感数据进行交互。这为防御者创造新机会的同时,也带来了新的风险。当前企业需要采取双重策略:既要借助代理式 AI 构建防御体系,又要建立针对代理式 AI 的防护机制。
NVIDIA AI 安全栈为先进的代理式系统提供信任、控制和管理支持。
代理式 AI 正在重塑网络安全格局,它带来了全新机遇,需要我们重新审视如何保障 AI 安全,同时为应对挑战提供关键路径。
与传统的 AI 系统不同,AI 智能体可以采取自主行动,与工具、运行环境、其他智能体和敏感数据进行交互。这为防御者创造新机会的同时,也带来了新的风险。当前企业需要采取双重策略:既要借助代理式 AI 构建防御体系,又要建立针对代理式 AI 的防护机制。
基于代理式 AI 建立网络安全防御体系
由于人才短缺和警报数量不断增加,网络安全团队的负担越来越重。代理式 AI 为强化威胁检测、响应机制和 AI 的安全防护提供了新的途径,这就需要网络安全生态系统实现基础架构的革新性改变。
代理式 AI 系统具备自主感知、逻辑推理和执行能力,可以独立解决复杂的问题。它们还可以作为网络专家的智能协作者,保护数字资产,降低企业环境中的风险并提高安全运营中心的效率。这可以释放网络安全团队的潜能,让他们专注于高影响力的决策,扩展专业知识,同时有效缓解安全团队员工的倦怠感。
以漏洞响应为例,AI 智能体可以在数秒内侦察到新的常见漏洞或暴露的风险,从而缩短应对软件安全漏洞所需的时间。AI 智能体可以搜索外部资源、评估环境并对相应结果进行总结和排序,以便人类分析师能够迅速采取明智的行动。
德勤等领先企业正在采用 NVIDIA AI Blueprint 进行漏洞分析,并通过 NVIDIA NIM 和 NVIDIA Morpheus 来帮助他们的客户加速软件补丁部署和漏洞管理。亚马逊云科技还与 NVIDIA 协作,使用 NVIDIA AI Blueprint 构建开源参考架构,在亚马逊云科技的云环境中进行软件安全修补。
AI 智能体还可以改进安全警报分流。大多数安全运营中心每天都要面对大量的警报,而从噪音中分拣关键信号的过程缓慢、重复,并且依赖于机构知识和经验。
包括 CrowdStrike 和 Trend Micro 在内的领先安全提供商正在使用 NVIDIA AI 软件来推进网络安全领域的代理式 AI。CrowdStrike 的 Charlotte AI Detection Triage 可将检测分类速度翻倍,而计算量减少 50%,降低了警报疲劳并且优化了安全运营中心的效率。
代理系统可帮助实时加快整个工作流,分析警报、从工具中收集上下文、对根本原因进行逻辑推理,并根据洞察采取行动。
它们甚至可以从经验丰富的分析师那里获取专业知识,并将其转化为行动,从而帮助新晋分析师上岗。
企业可以使用 AI-Q NVIDIA Blueprint(用于将 AI 智能体连接到企业数据)和 NVIDIA Agent Intelligence 工具包(一个可加速 AI 智能体开发并优化工作流的开源库)来构建警报分流智能体。
保护代理式 AI 应用
代理式 AI 系统不仅能分析信息,还能对其进行逻辑推理并采取行动。这就带来了新的安全挑战:智能体可能会访问工具、生成触发下游效应的输出或实时与敏感数据交互。为了确保它们的行为安全且可预测,企业需要部署前测试和运行时控制。
红色团队 (Red teaming) 和测试有助于在投产前发现智能体在理解提示、使用工具或处理意外输入方面的弱点。这还包括探查智能体在遵循约束、从故障中恢复,以及防御操纵性或对抗性攻击方面的能力。
大语言模型漏洞扫描器 Garak 可通过模拟对抗行为(如提示注入、工具滥用和逻辑推理错误)对基于大语言模型的智能体进行自动测试。
运行时护栏提供了一种执行策略边界、限制不安全行为,以及使智能体输出与企业目标迅速保持一致的方法。NVIDIA NeMo Guardrails 可帮助开发人员轻松定义、部署和快速更新规则,管理 AI 智能体的言行。这种低成本、低投入的适应性可确保在检测到问题时做出快速有效的响应,保持智能体行为的一致性以及在生产中的安全性。
Amdocs、Cerence AI 、Palo Alto Networks 等领先企业正在使用 NVIDIA NeMo Guardrails 为其客户提供可信任的代理式体验。
运行时保护 (Runtime protections) 有助于在执行过程中保护敏感数据和智能体行为,确保操作的安全性和可信度。NVIDIA 机密计算 (NVIDIA Confidential Computing) 可以在运行时保护正在处理的数据,也称为保护“使用中的数据”,这降低了各种规模的 AI 模型在训练和推理过程中数据暴露的风险。
NVIDIA 机密计算由全球主要服务提供商提供,包括谷歌云和微软 Azure,其他云服务提供商也将陆续提供。
任何代理式 AI 应用的基础都是一套用于构建推理堆栈的软件工具、库和服务。NVIDIA AI Enterprise 软件平台采用软件生命周期流程,在保持应用编程接口 (API) 稳定性的同时,还能在软件的整个生命周期内解决漏洞问题,包括定期进行代码扫描以及及时发布安全补丁或缓解措施。
供应链中 AI 组件的真实性和完整性对于扩展代理式 AI 系统的信任度至关重要。NVIDIA AI Enterprise 软件栈包含容器签名、模型签名和软件物料清单,以便对这些组件进行验证。
这些技术中的每一项都提供了多层级的安全性防护,以保护从本地部署到云端等多种部署环境中的关键数据和宝贵模型。
保障代理基础设施安全
随着代理式 AI 系统自主化程度逐渐提升并深度融入企业工作流,其底层基础设施成为安全问题的核心要素。无论是部署在数据中心、边缘还是生产车间,代理式 AI 都需要设计支持隔离机制、可视化和控制能力的基础设施。
从设计层面看,代理式系统的运行具有高度自主性,能够执行具有重大影响力的操作,这些操作既可能带来益处,也可能引发潜在风险。这种自主性要求保护运行时工作负载、实施操作监控并严格执行零信任原则,以此有效保障这些系统的安全。
NVIDIA BlueField DPU 与 NVIDIA DOCA Argus 相结合,提供了一个可以使应用全面、实时地了解智能体工作负载行为的框架,并通过高级内存取证技术精准识别威胁。将安全控制直接部署到 BlueField DPU 而非服务器 CPU 上,可进一步隔离基础设施层面的威胁,大幅缩小潜在攻击的波及范围,增强全面的、无处不在的安全架构。
集成商还使用 NVIDIA 机密计算来加强代理式基础设施的安全基础。例如,EQTYLab 开发了一种新的加密证书系统,该系统提供了首个芯片级治理功能,可确保 AI 智能体在运行时合规。EQTYLab 将作为 RSA 创新沙盒 (RSA Innovation Sandbox) 大赛十大入围者之一在 RSA 大会上亮相。
NVIDIA Hopper 和 NVIDIA Blackwell GPU 支持 NVIDIA 机密计算,因此当用户从单 GPU 转向多 GPU 时,隔离技术可以扩展到机密虚拟机。
安全 AI 由 Protected PCIe (PPCIe) 提供,以 NVIDIA 机密计算为基础,允许客户将工作负载从单个 GPU 扩展到 8 个 GPU,这使企业能够在满足其代理式 AI 需求的同时,以更高效的方式提供安全保护。
这些基础设施组件支持本地和远程验证,使客户能够在部署敏感工作负载之前验证平台的完整性。
这些安全功能在像 AI 工厂一样的环境中尤为重要。在这些环境中,代理式系统开始为自动化、监测和实际决策提供支持。Cisco 通过集成 NVIDIA BlueField DPU,开创了安全的 AI 基础设施,在 NVIDIA 的助力下构建了“Cisco 安全 AI 工厂”,旨在为企业提供可扩展、安全和高效的 AI 部署。
将代理式 AI 扩展到网络物理系统会增加风险,因为安全漏洞会直接影响正常运行时间、安全性和物理操作的完整性。Armis、Check Point、CrowdStrike、德勤、Forescout、Nozomi Networks 和 World Wide Technology 等领先的合作伙伴正在整合 NVIDIA 的全栈网络安全 AI 技术,帮助能源、公共事业、制造设施等多个行业的客户加强关键基础设施,抵御网络威胁。
构建可信的 AI 行动
如今,每个企业都需要确保其网络安全投资与 AI 相结合,以保护未来的工作流安全。每个工作负载都需要全面加速,最终使防御者获得与 AI 节奏同步的工具。
NVIDIA 正在将 AI 和安全能力融合至技术基座,为生态系统合作伙伴提供由 AI 驱动的网络安全解决方案。这个全新的生态系统将帮助企业构建安全、可扩展的代理式 AI 系统。
来源:NVIDIA英伟达中国