NVIDIA® Tesla® A2

  • CUDA核心: 1280
  • 显存: 16 GB GDDR6
  • 单精度: 4.5 TFLOPS

NVIDIA® Tesla® A2 概览

NVIDIA A2 Tensor Core GPU 具有低功耗、小尺寸和高性能的特点,可为在边缘部署 NVIDIA AI 的智能视频分析 (IVA) 提供入门级推理功能。该 GPU 采用半高 PCIe 4.0 卡的设计,并提供 40-60 瓦的低热设计功耗 (TDP) 配置功能,能为大规模部署中的不同服务器带来通用的推理加速能力。



NVIDIA A2
FP32 峰值性能4.5 TF
TF32 Tensor Core9 TF | 18 TF¹
BFLOAT16 Tensor Core18 TF | 36 TF¹
FP16 Tensor Core 峰值性能18 TF | 36 TF¹
INT8 Tensor Core 峰值性能36 TOPS | 72 TOPS¹
INT4 Tensor Core 峰值性能72 TOPS | 144 TOPS¹
RT 核心数量10 个
媒体引擎1 个视频编码器
2 个视频解码器 (含 AV1 解码)
GPU 显存16GB GDDR6
GPU 显存带宽200GB/s
互联技术PCIe 4.0 x8
外形规格单插槽,半高 PCIe

热设计功耗 (TDP)

40–60瓦 (可配置)


虚拟化 GPU 软件支持


NVIDIA 虚拟 PC、NVIDIA 虚拟应用程序、NVIDIA RTX 虚拟化工作站、NVIDIA AI Enterprise 软件套件和 NVIDIA 虚拟化运算服务器


推理性能提升高达20倍

部署AI推理技术的目的是通过智能,实时的体验位消费者打造更便利的生活。与CPU服务器相比,搭载NVIDIA A2 Tensor Core 的边缘和入门级服务器可提供高达 20 倍的推理性能,可立即将服务器升级到能处理现代AI的水平。

在智能边缘实现更高的 IVA 性能

在智慧城市、制造和零售等智能边缘用例中,搭载 NVIDIA A2 GPU 的服务器最高可将性能提升 1.3 倍。与前几代 GPU 相比,运行 IVA 工作负载的 NVIDIA A2 GPU 最高可将性价比和能效分别提升 1.6 倍和 10%,从而改善部署效率。

针对服务器进行优化

针对 5G 边缘和工业环境这样空间和散热要求受限制的入门级服务器,NVIDIA A2 为其推理工作负载和部署进行了优化。A2 提供了在低功耗范围内运行的半高外形,从 60 瓦到 40 瓦的 TDP,使其成为众多服务器的理想选择。

领先的跨云、数据中心和边缘的 AI 推理性能

AI 推理继续推动跨行业的突破性创新,包括消费互联网、医疗保健和生命科学、金融服务、零售、制造和超级计算。A2 的小巧尺寸和低功耗与 NVIDIA A100A30 Tensor Core GPU 相结合,可提供跨云、数据中心和边缘的完整 AI 推理产品组合。A2 和 NVIDIA AI 推理产品组合可确保使用更少的服务器和更少的功率部署 AI 应用,从而已大幅降低的成本获得更快的洞察力。

电话咨询
在线地图