libtorch部署yolov5 CPU推理时间和GPU推理平均时间对比

libtorch 部署640 * 640图片GPU推理时间:
在这里插入图片描述
libtorch 部署640 * 640图片CPU推理时间:
在这里插入图片描述
gpu推理时间比Cpu快21.5倍。

深度学习查找直线宽度最小达到4个像素,5*5像素大小可以找到,但是置信度可能达到0.03,灰度值偏差8-10左右时候目标可以被找到,置信度达到0.3左右。
一般查找到最小灰度值差8左右。

7543 * 4712大小整张图片读取平均时间:278ms
在这里插入图片描述
7543 * 4712大小图片libtorch部署Cpu推理平均时间:7.145s
利用裁剪方法(将图片长宽除640,得到96张图片)
在这里插入图片描述7543*4712大小图片切分成640 * 640大小图片libtorch部署Gpu预处理+推理平均时间为90ms

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
libtorch 推理是指使用 C++ 相关工具库 libtorch 进行模型推理的过程。 libtorch 是一个基于 PyTorch 的 C++ 库,用于在生产环境中进行高性能的深度学习推理libtorch推理过程主要分为以下几个步骤: 1. 加载模型:首先,我们需要将训练好的 PyTorch 模型保存为 TorchScript 格式,这样就可以在 C++ 中使用 libtorch 进行加载和运行。可以使用 PyTorch 提供的 `torch.jit.save()` 函数将模型保存为 TorchScript 文件。 2. 创建推理引擎:在加载模型之后,我们需要创建一个推理引擎。可以通过调用 `torch::jit::load()` 函数加载 TorchScript 文件,将其转化为可执行的推理引擎,并且可以通过设置相关参数来优化推理性能,例如启用或禁用 GPU 加速。 3. 输入数据准备:接下来,我们需要准备输入数据以供推理使用。根据模型的输入要求,我们可以通过 C++ 的数据结构(如张量)来加载和预处理输入数据,例如图像数据的归一化或缩放等。 4. 进行模型推理:一切准备就绪后,我们可以调用推理引擎的 `forward()` 函数并传递输入数据进行模型推理推理引擎会处理数据,并返回模型的输出结果。 5. 输出结果处理:最后,我们可以对模型的输出结果进行后处理操作。根据具体的应用场景,可以将输出结果转化为特定的格式,或者对结果进行解码、映射等操作。 总结起来,libtorch 推理是利用 libtorch 库加载和运行 PyTorch 模型,通过创建推理引擎、准备输入数据、进行模型推理和处理输出结果等步骤来完成的。这些步骤可以帮助我们在 C++ 环境中完成高性能的深度学习推理任务。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

胖子工作室

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值