在人工智能中,内存中处理的数据往往是最脆弱的。 以下是关于 @nvidia 的机密计算如何保护使用中的数据,以确保敏感数据集、模型权重和代码在训练和推理过程中保持安全的概述。 在零信任、受监管或多租户环境中,这一点至关重要。 🧵👇
2/6:与仅依赖软件的方法不同,NVIDIA 在其 GPU 中实现了硬件层面的安全性。 这意味着加密、隔离和证明功能被内置于硅芯片中,即使系统软件受到攻击,暴露的风险也会降低。
3/6:它通过在GPU内存中加密数据来工作,即使在通过TEE输入/输出以接近原生速度在NVLink互连上移动时也能保持安全。 这防止了其他进程、主机系统或具有物理或软件级访问权限的恶意行为者的未经授权访问。
4/6: 隔离是通过 NVIDIA 的硬件级分区能力实现的,特别是多实例 GPU (MIG) 技术。 MIG 允许将单个物理 GPU 划分为多个完全隔离的实例,每个实例都有自己专用的计算、内存和缓存资源。在机密计算模式下,这些实例作为安全区块运行,确保在一个实例上运行的工作负载无法读取或干扰另一个实例上的工作负载。 这种隔离级别对于多租户环境至关重要,例如云部署,在这些环境中,多个客户的工作负载共享相同的物理硬件。
5/6:证明提供了加密证明,确保 GPU 及其固件在工作负载开始执行之前处于受信任且未被篡改的状态。 NVIDIA 的证明服务验证硬件是真实的,其固件与批准的版本相匹配,并且它在保密模式下运行。这在零信任架构中至关重要,因为它允许企业确保其 AI 工作负载仅在安全、经过验证的环境中执行。 证明还支持受监管行业的合规性,在这些行业中,可证明的硬件信任是处理敏感数据的先决条件。
6/6:它最大的优势之一是您可以在不更改应用程序代码的情况下启用工作负载保护! 这仅仅是一个配置更改——非常适合企业 AI 管道,因为重写模型将是昂贵且具有破坏性的。 在这里阅读更多:!
939