NVIDIA® A30 Tensor Core GPU 为各种企业工作负载带来加速性能。借助 NVIDIA Ampere 架构 Tensor Core 和多实例 GPU (MIG),它可以安全加速各种工作负载,其中包括大规模 AI 推理和高性能计算 (HPC) 应用程序。它为数据中心提供了强大的端到端 AI 和 HPC 平台,让研究人员能够快速交付真实的结果,并且大规模地将解决方案部署到生产环境中。AI 训练 - 吞吐量比 v100 高 3 倍,比 T4 高 6 倍,AI 推理 - 实时对话式 AI 的吞吐量比 V100 高 3 倍,AI 推理 - 在实时图像分类中,吞吐量比 T4 高出 3 倍以上,HPC – 吞吐量比 V100 和 T4 分别高 1.1 倍和 9 倍之多。 搭载 A30 的加速服务器可以提供必需的计算能力,并能利用大容量 HBM2 显存、933 GB/s 的显存带宽和通过 NVLink 实现的可扩展性妥善处理这些工作负载。通过结合 InfiniBand、NVIDIA Magnum IO 和 RAPIDS™ 开源库套件(包括 RAPIDS Accelerator for Apache Spark),NVIDIA 数据中心平台能够加速这些大型工作负载,并实现超高的性能和效率水平。
产品咨询热线
01082112760