TensorRT笔记八(动态推理)

使用tensorRT动态shape进行cnn推理,下面是与非动态推理的代码区别

一、网络构建时区别

1. 模型定义时,输入维度给定为-1

nvinfer1::ITensor* input = network->addInput("image", nvinfer1::DataType::kFLOAT, nvinfer1::Dims4(-1, num_input, -1, -1));

注:

  • 若onnx文件,则onnx文件打开后应该看到动态或-1
  • 模型中若存在reshape类操作,reshape参数必须随动态进行计算(大部分时候这有问题
  • 除非全卷积网络,大部分时候只需要为batch_size维度设置为动态,其他维度避免设置动态

2.配置profile

  • create: builder->createOptimizationProfile()
    // 如果模型有多个输入,则必须多个profile
    auto profile = builder->createOptimizationProfile();
  • set: setDimensions()设置kMIN, kOPT, kMAX的一系列输入尺寸范围
    // 配置最小允许1 x 1 x 3 x 3
    profile->setDimensions(input->getName(), nvinfer1::OptProfileSelector::kMIN, nvinfer1::Dims4(1, num_input, 3, 3));
    // 最优配置
    profile->setDimensions(input->getName(), nvinfer1::OptProfileSelector::kOPT, nvinfer1::Dims4(1, num_input, 3, 3));

    // 配置最大允许10 x 1 x 5 x 5
    // if networkDims.d[i] != -1, then minDims.d[i] == optDims.d[i] == maxDims.d[i] == networkDims.d[i]
    profile->setDimensions(input->getName(), nvinfer1::OptProfileSelector::kMAX, nvinfer1::Dims4(maxBatchSize, num_input, 5, 5));
  • add:config->addOptimizationProfile(profile);添加profile到网络配置中
   config->addOptimizationProfile(profile);

二、推理阶段

明确当前推理时,使用的数据输入大小

execution_context->setBindingDimensions(0, nvinfer1::Dims4(ib, 1, ih, iw));
// 0为bindingIndex,上一节定义float* bindings[] = {input_data_device, output_data_device};故0为输入

三、pytorch检查正确性

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值