滴滴云A100 40G 性能测试 V100陪练!

眼看游戏卡RTX3080 发售在即,我终于等到了滴滴云(感谢)A100的测试机会。因为新卡比较紧张,一直在排队中,直到昨天才拿了半张A100...今天终于上手了单张40G的A100,小激动,小激动,小激动!!!基于安培架构的最新一代卡皇(NVIDIA GPU A100 Ampere)可以搞起来了。

Part 1:系统环境

A100正处于内存阶段,官网上还看不到。内测通过ssh连接,ssh连上去之后大概看了下系统环境。

操作系统,CPU,RAM数据如上。重点关注GPU:A100-SXM4-40GB (上次摸DGX A100的时候,没有把测试跑起来,好悔)

CUDA11,CudNN,TensorFlow1.5.2 等配套环境滴滴云都已经部署好了,可以省去好多时间!

这里需要注意,新版显卡必须要用CUDA11,而且得用NV自己编译的TensorFlow1.5.2。

然后,网上捞一段Python代码:

from tensorflow.python.client 
import device_lib print(device_lib.list_local_devices())

输出:

Created TensorFlow device (/device:GPU:0 with 36672 MB memory) -> physical GPU (device: 0, name: A100-SXM4-40GB, pci bus id: 0000:cb:00.0, compute capability: 8.0)
[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 3653225364972814250
, name: "/device:XLA_CPU:0"
device_type: "XLA_CPU"
memory_limit: 17179869184
locality {
}
incarnation: 7582640257522961335
physical_device_desc: "device: XLA_CPU device"
, name: "/device:XLA_GPU:0"
device_type: "XLA_GPU"
memory_limit: 17179869184
locality {
}
incarnation: 5159602092499780099
physical_device_desc: "device: XLA_GPU device"
, name: "/device:GPU:0"
device_type: "GPU"
memory_limit: 38453856175
locality {
  bus_id: 6
  numa_node: 5
  links {
  }
}
incarnation: 3682405687960901280
physical_device_desc: "device: 0, name: A100-SXM4-40GB, pci bus id: 0000:cb:00.0, compute capability: 8.0"
]

 

可以看到有XLA_GPU和GPU,物理设备型号为A100-SXM4-40GB,算力8.0,调用应该没问题!

Part 2:掂量掂量

卡到手了,肯定是要测一测!

既然是测试,肯定需要有陪跑选手滴。这里用到的设备为谷歌Colab的V100 16G,矩池云的2080TI 11G(为啥要拉上我这个性价比之王 ╰(艹皿艹 ) ,曾经的我随风飞扬,现在的我感觉天台的风好凉)。

设备有了,怎么测试才科学呢?用娱乐大师么? 不行滴,不行滴,不行滴!

首先,操作系统都是 Ubuntu18.04,跑不了Window上的软件。

其次,这里主要是比较深度学习能力,不比吃鸡能力。

深度学习卡能干什么?炼丹咯!

刚好看到(蓄谋已久)TensorFlow官方有提供Benchmarks,可以测试一些常见模型,那我就现学现卖用这个来做个“业余”测试吧,本文提供数据仅供参考,如有谬误,不要找我!

项目地址:

https://github.com/tensorflow/benchmarks

运行前需要先安装好CUDA,Cudnn,和TensorFlow,基本没什么多余的依赖。

三行命令就可以跑起来了

git clone https://github.com/tensorflow/benchmarks.git
cd benchmarks/scripts/tf_cnn_benchmarks
python tf_cnn_benchmarks.py --num_gpus=1 --batch_size=32 --model=resnet50

如果要测试特定的版本:

git checkout cnn_tf_v1.15_compatible

这里注意区分1.15和1.5版本,别搞错哦!

 

Part 3:测试结果

怀着无比激动的心情,重复着无比枯燥的复制黏贴,终于把表格做出了。每次跑会有一些微小的差别,但是整体偏差不会太高。

Model /GPUA100V1002080ti
ResNet50645.26386.06303.65
AlexNet8282.464808.183905.13
Inception v3440.01254.19198.97
VGG16442.20250.19178.02
GoogLeNet1556.061029.42777.65
ResNet152228.29138.39115.28

A100 VS  V100  VS 2080ti

这张表格使用Benchmarks的默认参数对比了A100,V100, 2080ti的性能。横向为GPU,列为模型名称,中间的为吞吐量images/sec,数字越大就证明越强。从结果来看,A100 Vs V100,基本保持在1.5倍上,比较好的能达到1.7倍左右。

上面为默认参数,下面使用--use_fp16比较一下A100和V100的差距。

Model /GPUA100V100
ResNet501315.11914.24
AlexNet10587.678810.04
Inception v3946.03579.62
VGG16687.07428.17
GoogLeNet2680.271878.02
ResNet152395.34293.98

A100 Vs V100 FP16

因为之前跑了20G的A100,所以也来比较一下通过MIG分割后的卡和单卡之间的差别。

MIG是multi-instance-gpu的缩写,多实例 GPU (MIG) 可提升每个 NVIDIA A100 Tensor 核心 GPU 的性能和价值。MIG 可将 A100 GPU 划分为多达七个实例,每个实例均与各自的高带宽显存、缓存和计算核心完全隔离。

模型/显卡A100 40G(单张)A100 20G(半张)
ResNet50645.26309.91
AlexNet8282.463694.83
Inception v3440.01226.36
VGG16442.20187.99
GoogLeNet1556.06748.62
ResNet152228.29119.79

A100 40G  VS  MIG 20G

从结果来看,40G和20Gx2有输有赢。也就是说MIG切完后性能并没有掉很多。

因为我手上显卡资源匮乏,没有其他设备,所以网上找了一张表格,可以通过V100作为参考系,对比一下其他设备和A100的差距。

再贴两张官方的性能对比图

 

 

从官方的图来看,8张A100最好的情况下能达到8张V100的6倍多。其中跑ResNet-50 V1.5的时候大概能达到两倍,刚好TensorFlow Benchmarks提供了这个模型。那我就顺手测一测,如果有不一致,肯定是我的打开方式不对,老黄请不要拿RTX3090显卡砸我,我会空手接...!

Model /GPUA100V100
ResNet-50 V1.5606.23349.78
ResNet-50 V1.5 FP161341.26851.87

拿出计算器滴滴滴:

606.23 / 349.78 = 1.7331751386585853965349648350392
1341.26 / 859.04 = 1.5744890652329580804582858886919

老黄诚不我欺,四舍五入一下真的是两倍哎!

当然,严格来说,我们的测试环境还是存在不小的差异。NV官方是8卡对决(家里没矿,但是卡多啊),能保证测试过程中其他变量保持一致。我这是随手取了两个平台的单卡。

Part 4:简单总结

《性能提升20倍:英伟达GPU旗舰A100登场》这样的媒体报道,就只能当故事汇了。正常的大厂都不可能这么升级,老黄的刀法也不允许这种事情发生,一年一刀,一刀一倍不香么。从实际情况来看,A100单手怼2080ti(2倍+), 双脚踩V100(1.5倍+)是没有问题滴。

滴滴云对于A100的跟进速度相当之快,很早就开始筹备,现在已经开放测试申请了,如果有需要的可以去申请测试。

要用GPU的可以去他们官网看看,性价比很高(大师码:8888)。

================

原地址:https://www.tonyisstark.com/383.html

Tesla A100 40GB PCIE是NVIDIA公司推出的一款面向加速计领域的GPU产品。它基于Ampere架构,专为数据中心高性能计(HPC)应用而设计,提供了先进的计性能、AI处理能以及优化的内存带宽。该产品支持PCI Express(PCIE)接口,能够安装在服务器工作站上,提供强大的图形加速。 以下是该GPU的一些关键特性: 1. 核心与性能:Tesla A100 40GB PCIE基于NVIDIA Ampere架构,搭载了超过540亿个晶体管,拥有超过540亿个晶体管,具备高达6912个CUDA核心40GB的HBM2e内存。 2. AI性能:得益于全新的Tensor Core技术,它支持第三代Tensor Core,提供了更高的AI性能,能够加速AI训练推理任务。 3. 内存容量与带宽:配备了40GB的HBM2e内存,提供了高达1.6TB/s的内存带宽,这对处理大型数据集复杂模型至关重要。 4. 连接性与兼容性:支持PCI Express Gen4,这意味着它具有更高的带宽更低的延迟,能够与最新的服务器主板兼容。 5. 多实例GPU(MIG)功能:允许单个GPU被分割成多达七个独立的GPU实例,从而为更多的用户或工作负载提供服务。 6. NVLink与PCIe连接:支持NVLink技术,可以将多个GPU连接起来形成GPU集群,用于需要大量并行计的复杂问题。 7. 软件支持:NVIDIA提供了完整的软件生态,包括CUDA Toolkit、cuDNN以及TensorRT等,以支持广泛的AI框架。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值