基于tensorrtx将crnn pytorch模型转换成tensorrt形式,并使用python接口部署,效率提升一半以上

1. 先装好tensorrt

参考Ubuntu18.04 conda环境中配置tensorrt
由于使用python接口,需要安装好pycuda

2. 参考tensorrtx CRNN转换模型为engine

可以直接跳到第三步,我提供了一个包装好的中文识别CRNN模型,以及预训练weights和转换成tensorrt格式的weights

3. 使用python接口部署

tensorrtx里默认使用的CRNN库是 https://github.com/meijieru/crnn.pytorch.git ,该库没有针对中文的模型。
同时,tensorrtx也没有提供官方的python接口部署样例。
我基于tensorrtx CRNN转换模型为engine和CRNN_Chinese_Characters_Rec创建了中文CRNN, pytorch转tensorrt
转换后使用python API,耗时为原来的35%,GPU显存消耗降低25%,精度降低微小。详见该github

CRNN是一种深度学习模型,可以同时完成文字检测和识别的任务。CRNN模型结合了卷积神经网络和循环神经网络,通过卷积神经网络提取图像特征,再通过循环神经网络对特征序列进行处理,从而实现文字识别。 PyTorch是一种流行的深度学习框架,支持神经网络模型定义、优化和训练等操作。以下是使用PyTorch实现CRNN模型的代码示例: # 导入需要用到的库和模块 import torch import torch.nn as nn class CRNN(nn.Module): def __init__(self, num_classes): super(CRNN, self).__init__() self.num_classes = num_classes # 定义卷积神经网络部分 # 卷积层1 self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1) self.bn1 = nn.BatchNorm2d(64) self.relu1 = nn.ReLU(inplace=True) # 池化层1 self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2) # 卷积层2 self.conv2 = nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1) self.bn2 = nn.BatchNorm2d(128) self.relu2 = nn.ReLU(inplace=True) # 池化层2 self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2) # 卷积层3 self.conv3 = nn.Conv2d(128, 256, kernel_size=3, stride=1, padding=1) self.bn3 = nn.BatchNorm2d(256) self.relu3 = nn.ReLU(inplace=True) # 卷积层4 self.conv4 = nn.Conv2d(256, 256, kernel_size=3, stride=1, padding=1) self.bn4 = nn.BatchNorm2d(256) self.relu4 = nn.ReLU(inplace=True) # 池化层3 self.pool3 = nn.MaxPool2d(kernel_size=(2,1), stride=(2,1)) # 将卷积层的输出展成二维的形状 self.conv_output_size = 256 * 6 * 1 # 定义循环神经网络部分 self.rnn = nn.GRU(input_size=self.conv_output_size, hidden_size=256, num_layers=1, batch_first=True, bidirectional=True) # 定义全连接层 self.fc = nn.Linear(256*2, num_classes) def forward(self, x): # 卷积神经网络部分 x = self.conv1(x) x = self.bn1(x) x = self.relu1(x) x = self.pool1(x) x = self.conv2(x) x = self.bn2(x) x = self.relu2(x) x = self.pool2(x) x = self.conv3(x) x = self.bn3(x) x = self.relu3(x) x = self.conv4(x) x = self.bn4(x) x = self.relu4(x) x = self.pool3(x) # 将张量按照时间步展成二维的形状 batch_size, channel, height, width = x.size() x = x.view(batch_size, channel*height, width).permute(0, 2, 1) # 循环神经网络部分 _, hidden = self.rnn(x) hidden = hidden[-1] # 全连接层 output = self.fc(hidden) return output 在上述代码中,定义了一个CRNN类,它继承了PyTorch的nn.Module类。在构造函数__init__中,定义了模型的各个层的参数和结构,包括卷积神经网络、循环神经网络和全连接层。在forward函数中,将输入的张量x经过卷积神经网络的卷积层、BN层、激活函数和池化层,然后按照时间步展成二维的形状,并经过循环神经网络和全连接层,最终输出预测的结果。 使用PyTorch实现CRNN模型的过程中,还需要定义损失函数和优化器,并进行训练和测试等操作,具体操作过程可以按照一般的深度学习模型的操作来实现。总的来说,CRNN模型PyTorch实现代码比较简单,只需要按照模型的结构一步步定义各个层的参数和结构,然后按照流程串起来即可。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值