NVIDIA® Tesla® A30

  • CUDA核心: 3584
  • 显存: 24 GB HBM2
  • 单精度: 10.3 TFLOPS
  • 双精度: 5.2 TFLOPS

NVIDIA® Tesla® A30 概览

NVIDIA A30 Tensor Core GPU 借助 NVIDIA Ampere 架构 Tensor Core 和多实例 GPU (MIG),它可以安全加速各种工作负载,其中包括大规模 AI 推理和高性能计算 (HPC) 应用程序。具有 PCIe 外形规格(非常适合主流服务器)的 A30 集快速显存带宽与低功耗于一体,不仅能实现弹性数据中心,还能为企业带来更大价值。


NVIDIA A30
FP645.2TF
TF64 Tensor Core10.3 TF
FP3210.3 TF
TF32 Tensor Core82 TF | 165 TF*
BFLOAT16 Tensor Core165 TF | 330 TF*
FP16 Tensor Core165 TF | 330 TF*
INT8 Tensor Core330 TOPS | 661 TOPS*
INT4 Tensor Core661 TOPS | 1321 TOPS*

编码/译码

1 optical flow accelerator (OFA)

1 JPEG decoder (NVJPEG)

4 Video decoders (NVDEC)

GPU 内存

24GB HBM2

GPU 内存带宽933GB/s
互联技术

PCIe 4.0: 64GB/s

第三代 NVIDIA ® NVLINK ® 200GB/s**

尺寸规格

2 插槽 (FHFL)

散热设计功耗 (TDP)165W
虚拟化 GPU 软件支持

NVIDIA AI Enterprise for VMware

NVIDIA Virtual Compute Server



NVIDIA AMPERE 架构

无论是使用 MIG 技术将 A30 GPU 分割为较小的实例,还是使用 NVIDIA® NVLink® 连接多个GPU 以加速更大规模的工作负载,A30 均可轻松满足多种规模的加速需求,从小型作业到大型多节点工作负载都无一例外。A30 功能全面,这意味着 IT 经理可借此在主流服务器上充分利用数据中心内的每个 GPU,昼夜不停歇。

第三代 TENSOR CORE 技术

NVIDIA A30 可提供 165 teraFLOPS (TFLOPS) 的 TF32 精度深度学习性能。相较于 NVIDIA T4 Tensor Core GPU,A30 可将 AI 训练吞吐量提高 20 倍,并将推理性能提高 5 倍以上。A30 可在 HPC 方面提供 10.3 TFLOPS 的性能,比 NVIDIA V100 Tensor Core GPU 高出了近 30%。

新一代 NVLINK

A30 中采用的 NVIDIA NVLink 可提供两倍于上一代的吞吐量。两个 A30 PCIe GPU 可通过 NVLink 桥接器连接,以提供 330 TFLOPS 的深度学习性能。

多实例 GPU (MIG)

每个 A30 GPU 可分割多达四个GPU 实例,这些实例在硬件级别完全独立,并各自拥有高带宽显存、缓存和计算核心。借助 MIG,开发者可为其所有应用实现惊人加速。IT 管理员可为每个作业提供符合其规模的 GPU 加速,进而优化利用率,并让每个用户和应用都能享受 GPU 加速性能。

HBM2 显存

配合高达 24GB 的高带宽显存 (HBM2),A30 可提供933GB/s 的 GPU 显存带宽,适用于主流服务器中的多种 AI 和 HPC 工作负载。

结构化稀疏

AI 网络拥有数百万至数十亿个参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使模型变得“稀疏”。A30 中的 Tensor Core 可为稀疏模型提供高达两倍的性能提升。稀疏功能不仅更易使 AI 推理受益,同时还能提升模型训练的性能。




电话咨询
在线地图