Windows11环境下VS2019调用Pytorch语义分割模型(C++版)

         语义分割模型在训练时往往采用python脚本进行网络搭建和训练,并获得训练好的模型。为了提高效率方便整个工程项目部署,实际工程应用中通常希望使用C++编程语言调用训练好的网络模型。查询大量网络资料并踩过无数坑后,经实际测试实现了在window11环境下调用pytorch语义分割模型,具体实现步骤记录如下。

一、系统环境参数

电脑系统:window11
VS版本:2019
pytorch版本:2.1
CUDA版本:cuda11
python版本:3.9.17

二、pytorch模型转换

在C++环境下调用pytorch网络模型,首先需要将其转换为能够识别和调用的网络模型(.pt格式)。新建python脚本实现模型转换。实现代码如下:

import torch
import torchvision

device = torch.device('cuda') if torch.cuda.is_available() else torch.device('cpu')

filenameCheckpoint = '../checkpoints/checkpoint_end.pth.tar'

checkpoint = torch.load(filenameCheckpoint)

model = checkpoint['arg']

model.load_state_dict(checkpoint['state_dict'])
model.cuda(device)

input_img_rand = torch.rand(1, 3, 608, 608).cuda()
traced_script_module = torch.jit.trace(model, input_img_rand)
traced_script_module.save('forign_detect_model-gpu.pt')

model.cpu()
input_img_rand_cpu = torch.rand(1, 3, 608, 608)
traced_script_module = torch.jit.trace(model, input_img_rand_cpu)
traced_script_module.save("forign_detect_model-cpu.pt")

三、libtorch库下载

这个库是实现模型调用的关键,进入pytorch官网即可下载,下载时参数选择如下图,本文下载的是release版本,下载链接如下:libtorch。下载完成后解压到固定目录即可。


 四、VS2019环境配置

打开vs2019,创建空项目,新建main.cpp。注意切换选择为x64模式。打开项目属性页进行环境配置。属性页中C/C++->常规->附件包含目录。添加头文件路径(根据libtorch实际的路径修改),如下图所示。后期会使用到opencv,需要进行 opencv环境配置
然后配置 链接器->常规->附加库目录,配置如下图:

 继续配置依赖项:链接器->输入->附加依赖项。如下图所示:

 为方便输入,依赖项如下:

asmjit.lib
c10.lib
c10_cuda.lib
caffe2_nvrtc.lib
clog.lib
cpuinfo.lib
dnnl.lib
fbgemm.lib
fbjni.lib
kineto.lib
libprotobuf.lib
libprotobuf-lite.lib
libprotoc.lib
nvfuser_codegen.lib
pthreadpool.lib
pytorch_jni.lib
torch.lib
torch_cpu.lib
torch_cuda.lib
XNNPACK.lib
opencv_world346.lib(根据OpenCV版本进行修改)

最后是调试的环境配置,如下图所示:
 配置如下:PATH=D:\CODES\forign_detectC++\libtorch\lib;E:\opencv\build\x64\vc15\bin(需要根据实际库的安装路径修改)。

值得注意的是由于我的pytorch版本较高为2.1,需要使用c++17才能编译成功。因此需要配置C++17,如下图所示。

 至此,环境配置环境,接下来开始模型调用实现。


五、pytorch模型调用

main.cpp中完整调用代码如下:输入一张测试图,调用语义分割模型,最后获得语义分割图像。
 

#include <torch/script.h>
#include <opencv2/opencv.hpp>
#include <iostream>
#include <torch/torch.h>

int main()
{

    torch::DeviceType device_type;
    if (torch::cuda::is_available()) {
        std::cout << "CUDA available! Predicting on GPU." << std::endl;
        device_type = torch::kCUDA;
    }
    else {
        std::cout << "Predicting on CPU." << std::endl;
        device_type = torch::kCPU;
    }

    torch::Device device(device_type);
    //模型加载
    std::string model_pb = "D:\\CODES\\forign_detectC++\\testPro\\forign_detect_model-gpu.pt";
    auto module = torch::jit::load(model_pb);
    module.to(at::kCUDA);
//测试图像加载
    auto image = cv::imread("testimg.png", cv::ImreadModes::IMREAD_COLOR);
    cv::Mat image_transfomed;
    cv::resize(image, image_transfomed, cv::Size(image.rows, image.cols));
    cv::cvtColor(image_transfomed, image_transfomed, cv::COLOR_BGR2RGB);

//转为适合训练的张量维度
    torch::Tensor tensor_image = torch::from_blob(image_transfomed.data,
        { image_transfomed.rows, image_transfomed.cols,3 }, torch::kByte);

    tensor_image = tensor_image.permute({ 2,0,1 });
    tensor_image = tensor_image.toType(torch::kFloat);
    tensor_image = tensor_image.div(255);
    tensor_image = tensor_image.unsqueeze(0);
    tensor_image = tensor_image.to(at::kCUDA);

    torch::Tensor output = module.forward({ tensor_image }).toTensor();
//获取预测结果
    torch::Tensor pred_out = output[0];


//
    std::tuple<torch::Tensor, torch::Tensor> img_reverse_one_hot = torch::max(pred_out, 0);

//类别的最大值
    torch::Tensor img_max_value = std::get<0>(img_reverse_one_hot);
//类别最大值索引
    torch::Tensor img_max_index = std::get<1>(img_reverse_one_hot);

    img_max_index = img_max_index.to(torch::kU8);
    img_max_index = img_max_index.to(torch::kCPU);
     
//tensor 转cv::Mat
    cv::Mat img_max_index_mat(image_transfomed.rows, image_transfomed.cols, CV_8U);
    std::memcpy((void*)img_max_index_mat.data, img_max_index.data_ptr(), sizeof(torch::kU8) * img_max_index.numel());

//给预测结果赋值颜色
    cv::Mat coloredImg(image_transfomed.rows, image_transfomed.cols, CV_8UC3);
    const cv::Vec3b colorMap[] =
    {
        cv::Vec3b(0,0,0),
        cv::Vec3b(255,0,0)
    };

    for (int x = 0; x < coloredImg.rows; x++)
    {
        for (int y = 0; y < coloredImg.cols; y++)
        {
            int label = img_max_index_mat.at<uchar>(x, y);
            coloredImg.at<cv::Vec3b>(x, y) = colorMap[label];
        }
    }
//转BGR
    cv::cvtColor(coloredImg, coloredImg, cv::COLOR_RGB2BGR);
//与原图合并
    cv::bitwise_or(image, coloredImg, coloredImg);
    cv::imwrite("output.png", coloredImg);

    return 0;
}

 六、调试过程中遇到的坑

1.vs版本问题,之前使用vs2017,编译一直有问题,即便主函数什么都没有,仅包含头文件也会报错,折腾好几天,换成vs2019就没问题。

2.libtorch的版本问题,由于我当时下载的是release版本,但vs里面却设置了debug版本,导致程序一运行就会出现debug error abort has been called。因此,需要注意libtorch的版本和vs运行时的模式保持一致。同样注意vs里设置x64模式。
3.c++17问题:pytorh2.1必须使用c++17才能顺利编译,否则会报C++无法编译pytorch的问题,因此需要在vs中的“语言”模块中配置c++17。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值