新闻资讯

如何最快上手体验最新发布的全 7nm芯片、单节点达 5PFLOPS AI 算力的 NVIDIA DGX A100?

2020-05-21 10:00:03 siton 32

图片关键词

就在刚刚过去的5月14日,NVIDIA创始人兼CEO黄仁勋在自家厨房(他家豪宅好大啊通过在线视频的方式发表了主题演讲。这个刷爆朋友圈的视频大放送,发布的内容相信大家通过各个科技媒体都了解的七七八八了。还未关注的,可以点击首页banner图看中文字幕版的视频。
今天我们重点介绍一下本次主题演讲的重头戏,DGX家族新品——NVIDIA DGX A100,采用 NVIDIA A100 Tensor Core GPU, 为加速所有工作负载提供卓越的性能和灵活性。

说产品之前,还是要先了解一下本次全新的 Ampere GPU架构:引入了 第三代 Tensor Core(又一次10倍加速)、多实例 GPU (MIG) (一块A100可切分为7个实例)、第三代 NVLink(600GB/s)、更快的显存(1.5 TB/s) 等诸多新特性。DGX A100 集成了 8 块 A100 GPU 芯片。

本文末尾有DGX A100 的免费测试申请二维码,如果您有兴趣做测试体验,请扫码向我们提交您的测试申请,我们将在NFR机器到货后按照申请提交顺序进行相应安排。

下面,让我们详细了解一下这台被誉为“英伟达史上最大性能飞跃”的全新核弹。


图片关键词

图片关键词

NVIDIA DGX A100 详细介绍

图片关键词

规模化企业 AI 面对的挑战

每个企业都需要利用人工智能(AI)进行转型,不只是为了生存,而是要在充满挑战的时代里发展壮大。然而,过去缓慢的计算体系架构被数据分析、训练和推理工作负载所分割,企业需要一个统一的人工智能基础设施平台。旧的架构造成了复杂性,提高了成本,限制了规模化增长的速度,它并没有为现代人工智能负载做好准备。企业、开发者、数据科学家和研究人员需要一个新的平台来统一所有的AI工作负载,简化基础设施和提升投资回报率。


适用于所有 AI 工作负载的通用系统

NVIDIA DGX™ A100是适用于所有人工智能工作负载的通用系统⸺从分析到训练,再到推理。DGX A100为计算密度设定了新的标准,将5 petaFLOPS的AI性能打包到6U的外形尺寸中,取代传统的计算基础架构为一个独立统一的系统。此外,DGX A100还提供了前所未有的提供细粒度分配计算力的能力,通过NVIDIA A100 Tensor Core GPU中的“Multi-Instance GPU” (MIG) 功能,使管理员能够为特定工作负载分配合适大小的计算资源。这确保了系统既能支持最大最复杂的作业,还可以支持最小最简单的任务。运行 NGC 上优化过的 DGX 软件堆栈,结合密集的计算能力和完整的工作负载灵活性,让 DGX A100 成为适用于单节点部署以及部署了NVIDIA DeepOps的大规模Slurm/Kubernetes 集群的理想之选。


直接获取 NVIDIA DGXperts的支持

NVIDIA DGX A100不仅仅是一台服务器,它更是一个基于全球最大的DGX集群⸺NVIDIA DGX SATURNV⸺积累的知识经验而建立,可获取NVIDIA数千名DGXperts支持的完整的软硬件平台。DGXperts是能够为您提供规范指导和专业知识的精通 AI 的从业者,以帮助推动 AI 转型。他们在过去十年中积累了丰富的专业知识和经验,可帮助您最大程度地利用 DGX 投资的价值。DGXperts 帮助确保关键应用程序快速启动运行,并保持平稳运转,从而大大缩短获得洞察的时间。


更快的加速体验

NVIDIA DGX A100 拥有8个NVIDIA A100 张量核心 GPU,为用户提供无与伦比的加速效果,并针对NVIDIA CUDA-X™ 软件和 NVIDIA 端到端数据中心解决方案堆栈进行了充分优化。NVIDIA A100 GPU带来了一种全新的精度单位,TF32,它的工作原理类似 FP32,AI 负载的 FLOPS 性能较上一代提升了 20 倍,最棒的一点是,无需修改代码就可以得到这种加速效果。通过 NVIDIA 自动混合精度功能,只需要增加一行代码 A100 就可以提供额外 2 倍的 FP16 精度性能的提升。A100 GPU也拥有一流的1.6 TB/s的内存带宽,比上一代增加了70%以上。此外,A100 GPU有更多的片上内存,包括一个40MB的二级缓存,比上一代几乎大7倍,最大限度地提高了计算性能。DGX A100还推出了新一代的NVIDIA NVLink™,双倍提升了 GPU 间的通讯带宽,达到了每秒 600 GB/s,几乎比PCIe 4.0 高 10 倍,还有新的NVIDIA NVSwitch 比上一代快 2 倍。这种前所未有的能力提供了更快的加速解决方案,允许用户处理以前不可能或不实际的挑战。


超安全的人工智能系统

企业级NVIDIA DGX A100 能够为 AI 企业提供最强大的安全态势,它采用了一种多层级架构来保护所有主要的软硬件组件。横跨BMC, CPU主板,GPU主板,自加密驱动器和安全启动,DGX A100 天然的考虑了安全性,使 IT 部门可以专注于 AI 作业,而无需将时间花费在评估和降低威胁上。


联合 Mellanox 提供无可匹敌的数据中心可扩展性

NVIDIA DGX A100 拥有 DGX 系列产品里最快的 I/O 架构,是大型 AI 集群(如NVIDIA DGX SuperPOD™)和扩张企业 AI 基础设施蓝图的基础组件。DGX A100 有 8 个单端口 Mellanox ConnectX-6 VPI HDR InfifiniBand 适配器可供搭建集群,1个双端口 ConnectX-6 VPI Ethernet 适配器供连接存储设备和网络, 全部端口可提供 200 Gb/s 的通讯能力。大规模 GPU 加速计算与最先进的网络软硬件优化相结合,这意味着 DGX A100 可以扩展到数百或数千个节点,以应对最大的挑战,如会话人工智能和大规模图像分类负载。


与可信的数据中心领导者一起构建可靠的基础设施解决方案

通过与领先的存储和网络技术供应商的合作,我们提供了一系列结合了NVIDIA DGX POD™参考体系架构优点的基础设施解决方案。通过 NVIDIA NPN 合作伙伴思腾合力,这些解决方案可打包为完全集成的、随时可以部署的产品级交付,使数据中心 AI 部署更简单和快速。

图片关键词

NVIDIA DGX A100 系统规格

图片关键词

图片关键词

NVIDIA DGX A100 性能对比SPEC

图片关键词

图片关键词

欢迎扫描下方二维码向我们提交您的 DGX A100 测试申请预约!

图片关键词