Libtorch加载训练好的U-Net网络模型获得预测结果

本人使用的环境是Qt5.14.1+VS2017+libtorch1.11.0-cuda+OpenCV3.4.16,以下介绍各环境用途

Qt用于编程的IDE,个人觉得在Qt中编码,比在VS中要舒服一点。

VS2017 Qt的编译工具。

libtorch pytorch的C++版本,用来项目落地,即使用pytorch进行模型训练,导出的模型使用libtorch进行调用。

配置踩坑看这里:

Windows下PyTorch(LibTorch)配置cuda加速_Terod的博客-CSDN博客_libtorch 加速

【Libtorch】解决“cuda::isavailable= 1”,但是加载GPU模型时仍然报错的问题_watermelongogogo的博客-CSDN博客

OpenCV 进行输入网络前后的数据进行处理,如读取、通道操作、尺寸操作、显示等操作。

这里使用的模型是U-Net网络使用ISIC-2017的数据集训练的模型,需要满足TorchScript的要求,

具体要求参考这里:

三维目标检测:(五)如何将pytorch模型部署到C++工程中及pytorch模型转libtorch模型常见的问题_ZZZZZZZZZZZZZYQ的博客-CSDN博客

以下是具体代码:

#include <torch/script.h>
#include <torch/torch.h>

#include <iostream>

#include <opencv2/opencv.hpp>


using namespace std;
using namespace cv;

int main(int argc, char* argv[])
{
    std::cout << "torch::cuda::is_available() = " << torch::cuda::is_available() << std::endl;

    torch::Device deviceCUDA(torch::kCUDA, 0);
    torch::Device deviceCPU(torch::kCPU);

    torch::jit::script::Module module;

    try
    {
        module = torch::jit::load("models\\best_model_jit.pt", deviceCUDA);
    }
    catch(std::exception exc)
    {
        std::cout << exc.what() << std::endl;
    }

    Mat image = imread("images/01.jpg");
    if(image.empty())
    {
        cout <<"image imread failed"<< endl;
    }
    Mat image_gray;
    cvtColor(image, image_gray, COLOR_BGR2GRAY);
    Mat image_scalre;
    resize(image_gray, image_scalre,Size(512,512));

    imshow("src", image_scalre);

    Mat t = image_scalre.reshape(1,1);

    torch::Tensor tensor = torch::from_blob(t.data, {1,1,512,512}, torch::kU8).toType(torch::kFloat32).to(deviceCUDA);
    std::vector<torch::jit::IValue> inputs;
    inputs.push_back(tensor);

    cout << tensor.itemsize() << endl;

    torch::Tensor output = module.forward(inputs).toTensor().to(deviceCPU);

    cout << output.itemsize() << endl;

    Mat result = Mat(512, 512, CV_8UC1, Scalar(0));

    output = output.view({ 1, 1, 512, 512 });

    for (int i = 0; i < 512; i++)
    {
        for (int j = 0; j < 512; j++)
        {
            if(output[0][0][i][j].item().toFloat() >= 0.5)
            {
                result.data[512*i + j] = 255;
            }
        }
    }

    imshow("res", result);
    waitKey(0);

    return 0;
}

以下是运行效果:

 千里之行,始于足下。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
libtorch是一个为C++语言设计的机器学习库,用于使用PyTorch训练好的模型进行预测。实例分割是一种计算机视觉任务,旨在从图像中找出并准确地标记出每个特定物体的位置和形状。 要使用libtorch进行实例分割模型预测,首先需要加载训练好的模型。可以使用torch::jit::load函数加载PyTorch模型的序列化文件,将其加载libtorch中。 加载模型之后,需要预处理输入图像。实例分割模型通常需要输入是归一化的图像,并且可能需要特定的图像尺寸。可以使用OpenCV等图像处理库将输入图像转换为模型所需的格式和大小。 接下来,将预处理后的图像输入加载模型。可以使用torch::jit::IValue对象来表示输入图像,并使用torch::jit::Module::forward函数对图像进行前向传播,得到模型的输出。 模型的输出通常是一个包含预测信息的张量。可以将输出张量转换为可视化的实例分割结果,以便对模型预测进行可视化展示。可以使用图像处理库或标注库来标记实例分割结果并绘制在原始图像上。 最后,根据需求进行后处理,如删除重复的预测、应用阈值等。根据具体的使用场景,可能还需要根据实际需求对模型的输出结果进行进一步的处理和解释。 总的来说,使用libtorch进行实例分割模型预测包括加载模型、预处理输入图像、进行前向传播、后处理和结果可视化等步骤。通过这些步骤,可以从图像中准确地识别和标记出每个特定物体的位置和形状。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

把我格子衫拿来

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值