技嘉发布采用NVIDIA Tesla A100 Ampere GPU的HPC系统

科技2020-08-25 19:30:22
导读

技嘉在其HPC系列产品中宣布了四个采用NVIDIA Tesla A100 Ampere GPU的系统,其中包括G492-ZD0,G492-ID0,G262-ZR0和G262-IR0。这些产品不仅按处理器划分,还提供安装在服务器机箱中的第二代AMD EPYC或第三代Intel Xeon可扩展处理器。

技嘉推出采用AMD EPYC和Intel Xeon Flavors的NVIDIA Tesla A100 Ampere GPU Powered HPC Systems

这些产品定义的另一种方式是,服务器可以容纳多少个GPU G492系列可以总共容纳八个GPU,而G262系列可以总共容纳四个GPU。这些服务器设计用于数据中心,科学家,研究人员和工程师将使用这些服务器。这些用户将利用GPU加速的HPC和AI(人工智能)程序来加深他们的理解。

NVIDIA Ampere GA100“世界上最大的7nm GPU”官方–完整架构的深潜,8192个内核,48 GB HBM2,比Volta快20倍

NVIDIA HGX A100 8-GPU NVIDIA HGX A100 4-GPU

第二代AMD EPYC G492-ZD0 G262-ZR0

第三代Intel Xeon可扩展 G492-ID0 G262-IR0

这些产品将包括NVIDIA NVSwitch,NVIDIA NVLink和NVIDIA A100 GPU,将允许这些产品完全可扩展以满足用户的需求,NVIDIA加速数据中心还将具有NVIDIA Mellanox HDR InfiniBand高速网络以及NVIDIA Magnum IO软件。

技嘉推出采用AMD EPYC和Intel Xeon Flavors的NVIDIA Tesla A100 Ampere GPU Powered HPC Systems

这款Magnum IO软件同时支持GPUDirect RDMA和GPUDirect存储,如果情况需要,可以将单个HGX A100平台的组合从四个GPU扩展到八个GPU,甚至更多。A100 Tensor Core GPU旨在加速进一步的主要深度学习框架和700多种HPC应用程序。这些产品还具有容器软件的NGC目录,这将使开发人员可以轻松启动和运行程序。

技嘉的平台可以在2U或4U空间中支持大量GPU,这些服务器机箱的设计将GPU和CPU组件分开。它利用屏障设计来形成大的空气通道并防止热传导。这两款产品均使用80_高效电源构建,并且这些产品实现N + 1冗余,以确保在电力存储或断电期间不会丢失数据。

免责声明:本文由用户上传,如有侵权请联系删除!