使用tensorrt 加速Ultra-Fast-Lane-Detection项目

本文介绍了如何使用TensorRT加速 Ultra-Fast-Lane-Detection 项目,详细阐述了在CUDA和GPU环境下,从PyTorch的.pth模型转换为ONNX,再进一步转化为TensorRT(TRT)模型的过程,以提升图像识别的效率。
摘要由CSDN通过智能技术生成

使用tensorrt 加速Ultra-Fast-Lane-Detection项目

运行环境:

项目 主机版本(on ubuntu 18.04) AGX版本(Jetson 4.3)
cuda 10.0 10.0.130 -
cudnn7 7.6.5.32 -
tensorrt 7.0.0.11-1+cuda10.0 -
pytorch 1.4.0+cu100 1.2.0
torchvision 0.5.0+cu100 0.4.0

项目地址:
https://gitee.com/n__n/Ultra-Fast-Lane-Detection.git

pth 转 onnx

#!/usr/bin/python3

import torch
import torch.onnx as tox
from torch.autograd import Variable
from model.model import parsingNet
from utils.common import merge_config
from utils.dist_utils import dist_print

if __name__ == "__main__":
    torch.backends.cudnn.benchmark = True
    args, cfg = merge_config()

    dist_print('start testing...')
    assert cfg.backbone in ['18', '34', '50', '101',
                            '152', '50next', '101next', '50wide', '101wide']

    if cfg.dataset == 'CULane':
        cls_num_per_lane = 18
    else:
        raise NotImplementedError

    net = parsingNet(pretrained=False, backbone=cfg.backbone, cls_dim=(
        cfg.griding_num + 1, cls_num_per_lane, 4), use_aux=False).cuda()

    state_dict = torch.load(cfg.test_model, map_location='cuda')['model']
    compatible_state_dict = {
   }
    for k, v in state_dict.items():
        if 'module.' in k
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值