Pytorch GPU模型推理时间探讨

前言

  最近对pytorch的模型推理(inference)时间产生了兴趣,于是想着写一个小程序来观察一下现象。遂以此文记之。

实验配置

  主要思路:

  1. 创建多个不同规格的模型,每个模型只有一个简单的卷积层。
  2. 以卷积的各种不同参数作为模型的区别。
  3. 以随机数来生成一批数据,用***[B,C,W,H]***来表示。
  4. 每个模型进行100次推理,分10批次完成,记录这10批次的时间和平均时间。

硬件配置

  影响一个模型的推理速度的硬件应该主要就是这些了,还有一个带宽问题。

显卡:RTX 2080ti
内存:16G 2666MHz
CPU:Intel i5-9400F
系统:win10
主板:忘了

实验结果

  具体的网络规格这里就略去了,都是随便举的例子,没啥信息量。直接看结果吧。
在这里插入图片描述

  如上图所示,其中的序号表示模型序号,可以得到几个现象:

1.每个模型的每轮10次推理中,第一轮总是相对来说很慢的
2.这些模型的平均推理时间相差不大,也就是还没达到显卡的算力门槛。
3.平均推理时间相差不大的情况下,to_GPU_cost的区别较大。

解释与猜想

理论上每次推理时间应该是一样的,但就表格数据来看,1-9次的区别有些也很大。
这一现象可能是由于计时方法产生的,所用计时方法是time库的perf_counter方法,该方法是由CPU来执行的,而显卡计算后通知CPU,这之间还有通信差距。
每次的第一轮推理都很慢可能是因为GPU第一次做推理需要进行模型参数的初始化。

  中间还有一个小插曲,一开始我是在一个py程序里多次调用testModel这个方法,不同的模型作为参数传递进去,但是发现只有第一次调用时(也就是第一个模型的第一轮10次推理)才会用那么多时间,于是我改了一下代码,将模型参数作为main的参数,重写了一个bat(windows的批处理文件)来依次执行多个模型。

暂时先记录到这里,目前已经有了初步的认识,等后续再进一步研究研究
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值