NVIDIA® Tesla® V100/ V100S

  • CUDA核心: 5120
  • 显存: 32 GB HBM2
  • 单精度: 14 TFLOPS
  • 双精度: 7 TFLOPS

NVIDIA® Tesla® V100 概览

NVIDIA® V100 Tensor Core GPU 是深度学习、机器学习、高性能计算 (HPC) 和图形计算的强力加速器。V100 Tensor Core GPU 采用 NVIDIA Volta ™ 架构,可在单个 GPU 中提供近 32 个 CPU 的性能,助力研究人员攻克以前无法应对的挑战。

V100 是 NVIDIA 数据中心平台在深度学习、HPC 和图形领域的强大产品。该平台可为 600 余款 HPC 应用和各大深度学习框架提供加速。此平台适用于桌面、服务器以及云服务,不仅能显著提升性能,还能节省成本。



V100 PCIEV100 SXM2V100S PCIE
GPU 架构NVIDIA Volta

NVIDIA Tensor

核心数量

640

NVIDIA CUDA ®

核心数量

5120
双精度浮点运算性能7 TFLOPS7.8 TFLOPS8.2 TFLOPS
单精度浮点运算性能14 TFLOPS15.7 TFLOPS16.4 TFLOPS
Tensor 性能112 TFLOPS125 TFLOPS130 TFLOPS
GPU 显存32 GB 或 16 GB HBM232 GB HBM2
显存带宽900 GB/s1134 GB/s
纠错码支持
互联带宽32 GB/s300 GB/s32 GB/s
系统接口PCIe 3.0NVIDIA NVLink ™PCIe 3.0
外形尺寸

PCIe 全高 / 全长

SXM2

PCIe 全高 / 全长

功耗

250 瓦

300 瓦250 瓦
散热解决方案

被动式

  计算APICUDA、DirectCompute、OpenCL ™ 、OpenACC



NVIDIA Volta 架构

通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA® Tesla® V100 GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。

TENSOR CORE 技术

NVIDIA® Tesla® V100 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性能。与 NVIDIA Pascal™ GPU 相比,可为深度学习训练提供 12 倍张量浮点运算能力;为深度学习推理提供 6 倍张量浮点运算能力。

新一代 NVLINK

NVIDIA® Tesla® V100 中采用的 NVIDIA® NVLink 可提供 2 倍于上一代的吞吐量。8 块 NVIDIA® Tesla® V100 加速器能以高达 300 GB/s 的速度互联,从而发挥出单个服务器所能提供的高应用性能。

超强节能模式

全新的超大节能模式可允许数据中心在现有的功耗预算内,使每个机架提升高达40% 的计算能力。在此模式下,NVIDIA® Tesla® V100 以最大处理效率运行时,可提供高达 80% 的性能而只需一半的功耗。

HBM2 显存

NVIDIA® Tesla® V100 将 900 GB/s 的改良版原始带宽与高达 95%的 DRAM 利用效率相结合,在 STREAM 上测量时可提供高于 NVIDIA Pascal™ GPU 1.5 倍的显存带宽。

可编程性

NVIDIA® Tesla® V100 的架构设计初衷即是为了简化可编程性。其全新的独立线程调度能力可实现细粒度同步,并能通过在琐碎的工作之间共享资源进而提升 GPU 的利用率。


电话咨询
在线地图