性能出色,轻松处理各种工作负载。
A100 80GB PCIe | A100 80GB SXM | |
---|---|---|
FP64 | 9.7 TFLOPS | |
FP64 Tensor Core | 19.5 TFLOPS | |
FP32 | 19.5 TFLOPS | |
Tensor Float 32 (TF32) | 156 TFLOPS | 312 TFLOPS* | |
BFLOAT16 Tensor Core | 312 TFLOPS | 624 TFLOPS* | |
FP16 Tensor Core | 312 TFLOPS | 624 TFLOPS* | |
INT8 Tensor Core | 624 TOPS | 1248 TOPS* | |
GPU 显存 | 80GB HBM2 | 80GB HBM2e |
GPU 显存带宽 | 1935 GB/s | 2039 GB/s |
最大热设计功耗 (TDP) | 300W | 400W *** |
多实例 GPU | 最大为 7 MIG @ 5GB | 最大为 7 MIG @ 10GB |
外形规格 | PCIe 双插槽风冷式或单插槽液冷式 | SXM |
互连 | NVIDIA® NVLink® 桥接器 2 块 GPU:600 GB/s ** PCIe 4.0:64 GB/s | NVLink:600 GB/s PCIe 4.0:64 GB/s |
服务器选项 | 合作伙伴及配备 1 至 8 个 GPU 的 NVIDIA 认证系统™ | NVIDIA HGX™ A100 合作伙伴和配备 4、8 或 16 块 GPU 的 NVIDIA 认证系统 配备 8 块 GPU 的 NVIDIA DGX™ A100 |
* 采用稀疏技术
** SXM4 GPU 通过 HGX A100 服务器主板连接;PCIe GPU 通过 NVLink 桥接器可桥接多达两个 GPU
*** 400W TDP(适用于标准配置)。HGX A100-80 GB 自定义散热解决方案 (CTS) SKU 可支持高达 500W 的 TDP