AI 数据中心的价值体现
NVIDIA DGXTM A100 是适用于各种 AI 基础架构和工作负载的通用系统,基于革命性的NVIDIA A100 Tensor Core GPU 构建,并由 NVIDIA 十多年来的 AI 创新支持。DGX A100一个平台将训练、推理和数据分析整合到具有优化软件的整合系统中,而优化的软件是 AI 基础架构的基本构建模块。NVIDIA DGX A100 凭借每个 DGX 系统都拥有的 AI 专家支持,可加快企业 AI 在规划、部署和持续优化过程中的端到端生命周期。
NVIDIA DGX SuperPOD
前沿 AI 基础架构
划时代的性能
NVIDIA A100 Tensor Core GPU
NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和高性能计算 (HPC) 实现出色的加速,应对极其严峻的计算挑战。借助第三代 NVIDIA Tensor Core 提供的巨大性能提升,A100 GPU 可高效扩展至数千块,或在使用多实例 GPU 时,可将其分配为七个较小的专用实例对各种规模工作负载进行加速
多实例 GPU (MIG)
借助 MIG,可将 DGX A100 中的八块 A100 GPU 配置为多达 56 个 GPU 实例,每个实例都具有自己的高带宽内存,高速缓存和计算核心,完全隔离。这使管理员可合理调配 GPU 资源,确保多个工作负载的服务质量。
NGFW 常用型号规格
新一代 NVLink 和 NVSwitch
DGX A100 中的第三代 NVIDIA® NVLink® 使 GPU 至 GPU 直接带宽提高一倍,达到600 GB/s,几乎比 PCIe 4.0 高出 10 倍。DGX A100 还采用新一代 NVIDIA NVSwitch™,其速度是前一代的两倍