NVIDIA于SC20超级计算机大会发布多款产品

NVIDIA在SC20(2020年超级计算机大会)发布了A100 80GB GPU、DGX A100 640GB与DGX Station A100运算平台、Mellanox NDR 400G InfiniBand等产品,为以GPU为基础的超级计算机带来更强大的运算性能。

先前NVIDIA推出搭载A100 GPU(绘图处理器,此处用于AI运算)的DGX A100运算平台,当时每个A100仅搭载40GB内存,而这次NVIDIA推出内存容量翻倍的80GB版本。

A100 80GB搭载HBM2e类型内存,带宽高达2TB/s,不但可以通过更高的带宽快速导入更多资料,更大的容量也有助于处理更庞大的模型与资料集,加速研究人员进行AI运算或模拟的流程。

根据NVIDIA官方提供的参考资料,在DLRM这类含有大量表格以记载数十亿名用户与十亿项产品的推荐系统模型的AI训练过程中,A100 80GB能提供3倍的加速效果,让企业能在同样的时间中进行更多训练,以提高模型的精准度。另外由于A100 80GB能够训练更庞大的模型,因此不再需要耗费大量时间构建资料或模型平行处理架构,并避免跨多个节点运算所造成的性能耗损。

对于轻量化程序而言,A100 80GB也能通过多执行实例GPU(Multi-instance GPU,MIG)技术,将GPU切分为7个执行实例,每实例配置10GB的内存,构成安全无虞的硬件分隔区,为各种规模较小的作业负载提供最高的资源使用率,可以提升RNN-T这类自动语音识别模型的AI推论的吞吐量达1.25倍。

另一个例子是将A100 80GB应用于气象预报及量子化学等科学应用方面,以单节点A100 80GB系统执行Quantum Espresso材料模拟软件,可以提升资料产出量达接近2倍。

A100 80GB GPU的特色为搭载的内存从40GB倍增为80GB。

A100 80GB GPU搭载带宽高达2TB/s的HBM2e内存,并支持多执行实例GPU技术。

增加内存容量对多种运算类型的性能表现皆有帮助。

先前V100虽然通过软件优化增进不少性能,但升级A100能带来更显著提升。

更大的内存能容纳更大的资料与模型,对科学应用有很大的帮助。

受益于A100 80GB的出现,NVIDIA也推出了共有640GBGPU内存的DGX A100 640GB运算平台,让用户能快速提升平台的内存容量。

另外NVIDIA也推出了规模较小的DGX Station A100,它搭载4个通过NVLink互联的A100 80GB,可提供2.5petaflops的AI性能和多达320GB的GPU内存,也能通过多执行实例GPU技术的切分为28个独立执行实例,在不影响系统性能的状况下,支持多个用户进行平行作业,适合用于企业办公室、研究机构、实验室或家庭办公室的团队,加速艰巨的机器学习和资料科学作业负载任务。

另一方面为了解决工作站资料传输的需求,NVIDIA推出Mellanox 400G InfiniBand,作为AI超级计算机业界中最强大的解决方案,能够提供3倍的交换机端口密度,并将AI加速力提升32倍,也让交换机系统的聚合双向处理量遽增5倍,达到每秒1.64petabit,并让用户在限制更少的情况下运行更大型的作业负载。

DGX A100 640GB的GPU内存也随之增长至640GB。

NVIDIA先前发布的Cambridge- 1超级计算机就是以DGX A100 640GB构建而成。

DGX Station A100是为小型工作环境设计的AI工作站。

DGX Station A100的规格“比较”接近一般个人计算机。

为了维持运行稳定度,它甚至采用冷媒系统进行散热。

Mellanox InfiniBand提供超低延迟、超高带宽的连接能力,以加速运算平台的处理能力。

NVIDIA这次发布的多款产品将为AI运算注入更充沛的性能,NVIDIA深度学习应用研究部门副总裁Bryan Catanzaro表示:“若想获得高性能计算(HPC)与人工智能最顶尖的研究成果,就必须创建极庞大的模型,而这也代表将会需要比过去更多的内存容量和传输带宽。A100 80GB GPU提供比6个月前推出的前一代GPU多1倍的内存容量,还突破每秒2TB的带宽瓶颈,让研究人员能克服全球最重要的科学与大数据研究难题。”。