【Libtorch】YOLOV5在Window10的部署(二)

YOLOV5在Window10的部署(二)

前言

如果是刚开始学习部署的小伙伴,可以参考我的上一篇博客YOLOV5在Window10的部署(一)
本文禁止转载。

一:Cmake编译Libtorch_yolov5_master

1:打开之前下载好的Libtorch_yolov5_master,打开CMakeLists.txt。
在这里插入图片描述
2:更改或者填写Opencv和Libtorch路径
Opencv:D:/yolov501/opencv/build
Libtorch:D:/yolov501/libtorch/share/cmake/Torch/
在这里插入图片描述
3:填写好上述两个路径之后,摁住shift键,右键->在此处打开powershell窗口,输入start cmd。 进入cmd。

在这里插入图片描述
4:创建build文件夹:mkdir build
进入build文件夹:cd build
开始编译:cmake …
在这里插入图片描述
编译成功
在这里插入图片描述
打开build文件夹 如下图所示
在这里插入图片描述

二:YOLOV5推理

1:编译成功后 大家可以先打开 D:\YoloV5_libtorch\libtorch-yolov5-master\src,这两个文件夹,就是推理用的C++代码。
在这里插入图片描述
2:准备自己训练的模型 .pt文件,或者官方给出的模型(官方训练的不一定是使用pytorch1.8.0训练的,前面说了,模型训练的环境所使用的虚拟环境中的pytorch版本必须要和Libtorch版本对应,所以不一定能用),使用yolov5的export导出last.torchscript.py,这里我重命名为last.cpu.pt. 另外还要准备一个你的Label列表,然后将后缀改为.names。放到D:\YoloV5_libtorch\libtorch-yolov5-master\weights。当然也可以放到其他文件夹,路径引用对就行了。

在这里插入图片描述
wafer.names文件 这是我自己训练模型 所以跟COCO不一样。
在这里插入图片描述
3:创建一个新的空项目,新建一个main, 将下面代码复制进去。 当然也可用 上述 二:YOLOV5推理-> 1 里面的main.cpp,detector.cpp。但博主出错了,就自己创建了一个main。
在这里插入图片描述
注意 :修改为自己的模型的路径。

#include <opencv2/opencv.hpp>
#include <torch/script.h>
#include <torch/torch.h>
#include <algorithm>
#include <iostream>
#include <time.h>

std::vector<torch::Tensor> non_max_suppression(torch::Tensor preds, float score_thresh = 0.5, float iou_thresh = 0.5)
{
    std::vector<torch::Tensor> output;
    for (size_t i = 0; i < preds.sizes()[0]; ++i)
    {
        torch::Tensor pred = preds.select(0, i);

        // Filter by scores
        torch::Tensor scores = pred.select(1, 4) * std::get<0>(torch::max(pred.slice(1, 5, pred.sizes()[1]), 1));
        pred = torch::index_select(pred, 0, torch::nonzero(scores > score_thresh).select(1, 0));
        if (pred.sizes()[0] == 0) continue;

        // (center_x, center_y, w, h) to (left, top, right, bottom)
        pred.select(1, 0) = pred.select(1, 0) - pred.select(1, 2) / 2;
        pred.select(1, 1) = pred.select(1, 1) - pred.select(1, 3) / 2;
        pred.select(1, 2) = pred.select(1, 0) + pred.select(1, 2);
        pred.select(1, 3) = pred.select(1, 1) + pred.select(1, 3);

        // Computing scores and classes
        std::tuple<torch::Tensor, torch::Tensor> max_tuple = torch::max(pred.slice(1, 5, pred.sizes()[1]), 1);
        pred.select(1, 4) = pred.select(1, 4) * std::get<0>(max_tuple);
        pred.select(1, 5) = std::get<1>(max_tuple);

        torch::Tensor  dets = pred.slice(1, 0, 6);

        torch::Tensor keep = torch::empty({ dets.sizes()[0] });
        torch::Tensor areas = (dets.select(1, 3) - dets.select(1, 1)) * (dets.select(1, 2) - dets.select(1, 0));
        std::tuple<torch::Tensor, torch::Tensor> indexes_tuple = torch::sort(dets.select(1, 4), 0, 1);
        torch::Tensor v = std::get<0>(indexes_tuple);
        torch::Tensor indexes = std::get<1>(indexes_tuple);
        int count = 0;
        while (indexes.sizes()[0] > 0)
        {
            keep[count] = (indexes[0].item().toInt());
            count += 1;

            // Computing overlaps
            torch::Tensor lefts = torch::empty(indexes.sizes()[0] - 1);
            torch::Tensor tops = torch::empty(indexes.sizes()[0] - 1);
            torch::Tensor rights = torch::empty(indexes.sizes()[0] - 1);
            torch::Tensor bottoms = torch::empty(indexes.sizes()[0] - 1);
            torch::Tensor widths = torch::empty(indexes.sizes()[0] - 1);
            torch::Tensor heights = torch::empty(indexes.sizes()[0] - 1);
            for (size_t i = 0; i < indexes.sizes()[0] - 1; ++i)
            {
                lefts[i] = std::max(dets[indexes[0]][0].item().toFloat(), dets[indexes[i + 1]][0].item().toFloat());
                tops[i] = std::max(dets[indexes[0]][1].item().toFloat(), dets[indexes[i + 1]][1].item().toFloat());
                rights[i] = std::min(dets[indexes[0]][2].item().toFloat(), dets[indexes[i + 1]][2].item().toFloat());
                bottoms[i] = std::min(dets[indexes[0]][3].item().toFloat(), dets[indexes[i + 1]][3].item().toFloat());
                widths[i] = std::max(float(0), rights[i].item().toFloat() - lefts[i].item().toFloat());
                heights[i] = std::max(float(0), bottoms[i].item().toFloat() - tops[i].item().toFloat());
            }
            torch::Tensor overlaps = widths * heights;

            // FIlter by IOUs
            torch::Tensor ious = overlaps / (areas.select(0, indexes[0].item().toInt()) + torch::index_select(areas, 0, indexes.slice(0, 1, indexes.sizes()[0])) - overlaps);
            indexes = torch::index_select(indexes, 0, torch::nonzero(ious <= iou_thresh).select(1, 0) + 1);
        }
        keep = keep.toType(torch::kInt64);
        output.push_back(torch::index_select(dets, 0, keep.slice(0, 0, count)));
    }
    return output;
}

#include <torch/script.h> 
#include <iostream>
#include <memory>

int a(int argc, const char* argv[]) {
    std::cout << "cuda::is_available():" << torch::cuda::is_available() << std::endl;
    torch::DeviceType device_type = at::kCPU; // 定义设备类型
    //if (torch::cuda::is_available())
        //device_type = at::kCUDA;
    return 1;
}


int main(int argc, char* argv[])
{
    std::cout << "cuda::is_available():" << torch::cuda::is_available() << std::endl;
    torch::DeviceType device_type = at::kCPU; // 定义设备类型
    //if (torch::cuda::is_available())
        //device_type = at::kCUDA;
    // Loading  Module
    torch::jit::script::Module module = torch::jit::load("D:\\YoloV5_libtorch\\libtorch-yolov5-master\\weights\\lasts.cpu.pt");
    module.to(device_type); // 模型加载至GPU

    std::vector<std::string> classnames;
    std::ifstream f("D:\\YoloV5_libtorch\\libtorch-yolov5-master\\weights\\wafer.names");
    std::string name = "";
    int i = 0;
    std::map<int, std::string> labels;
    while (std::getline(f, name))
    {
        labels.insert(std::pair<int, std::string>(i, name));
        i++;
    }
    // 用 OpenCV 打开摄像头读取文件(你随便咋样获取图片都OK哪)
    cv::VideoCapture cap = cv::VideoCapture(0);
    //while (std::getline(f, name))
    //{
       // classnames.push_back(name);
    //}
    //if (argc < 2)
    //{
        //std::cout << "Please run with test video." << std::endl;
        //return -1;
    // }
    // std::string video = argv[1];
    //cv::VideoCapture cap = cv::VideoCapture(0);
    cap.set(cv::CAP_PROP_FRAME_WIDTH, 1000); //1920
    cap.set(cv::CAP_PROP_FRAME_HEIGHT, 900);  //1080
    cv::Mat frame, img;
    cap.read(frame);
    int width = frame.size().width;
    int height = frame.size().height;
    int count = 0;
    while (cap.isOpened())
    {
        count++;
        clock_t start = clock();
        cap.read(frame);
        if (frame.empty())
        {
            std::cout << "Read frame failed!" << std::endl;
            break;
        }
        std::cout << "-[INFO] Frame:" << std::to_string(count) << " FPS: " + std::to_string(float(1e7 / (clock() - start))) << std::endl;
        //std::cout << "-[INFO] Frame:" << std::to_string(count) << std::endl;
        cv::putText(frame, "FPS: " + std::to_string(int(1e7 / (clock() - start))),
            cv::Point(50, 50),
            cv::FONT_HERSHEY_SIMPLEX, 1, cv::Scalar(0, 255, 0), 2);
        cv::imshow("01", frame);
        //cv::imwrite("D:\\libtorch-yolov5-master\\images"+cv::format("%06d", count)+"01.bmp", frame);
        cv::resize(frame, frame, cv::Size(width, height));
        if (cv::waitKey(1) == 27) break;
        // Preparing input tensor
        cv::resize(frame, img, cv::Size(640, 640)); //640 ,384
        // cv::cvtColor(img, img, cv::COLOR_BGR2RGB);
        // torch::Tensor imgTensor = torch::from_blob(img.data, {img.rows, img.cols,3},torch::kByte);
        // imgTensor = imgTensor.permute({2,0,1});
        // imgTensor = imgTensor.toType(torch::kFloat);
        // imgTensor = imgTensor.div(255);
        // imgTensor = imgTensor.unsqueeze(0);
        // imgTensor = imgTensor.to(device_type);
        cv::cvtColor(img, img, cv::COLOR_BGR2RGB);  // BGR -> RGB
        img.convertTo(img, CV_32FC3, 1.0f / 255.0f);  // normalization 1/255
        auto imgTensor = torch::from_blob(img.data, { 1, img.rows, img.cols, img.channels() }).to(device_type);
        imgTensor = imgTensor.permute({ 0, 3, 1, 2 }).contiguous();  // BHWC -> BCHW (Batch, Channel, Height, Width)
        std::vector<torch::jit::IValue> inputs;
        inputs.emplace_back(imgTensor);
        // preds: [?, 15120, 9]
        torch::jit::IValue output = module.forward(inputs);
        auto preds = output.toTuple()->elements()[0].toTensor();
        //torch::Tensor preds = module.forward({ imgTensor }).toTensor();
        std::vector<torch::Tensor> dets = non_max_suppression(preds, 0.4, 0.5);
        if (dets.size() > 0)
        {
            // Visualize result
            for (size_t i = 0; i < dets[0].sizes()[0]; ++i)
            {
                float left = dets[0][i][0].item().toFloat() * frame.cols / 640;
                float top = dets[0][i][1].item().toFloat() * frame.rows / 640; //384
                float right = dets[0][i][2].item().toFloat() * frame.cols / 640;
                float bottom = dets[0][i][3].item().toFloat() * frame.rows / 640; //384
                float score = dets[0][i][4].item().toFloat();
                int classID = dets[0][i][5].item().toInt();

                cv::rectangle(frame, cv::Rect(left, top, (right - left), (bottom - top)), cv::Scalar(0, 255, 0), 2);

                cv::putText(frame,
                    classnames[classID] + ": " + cv::format("%.2f", score),
                    cv::Point(left, top),
                    cv::FONT_HERSHEY_SIMPLEX, (right - left) / 200, cv::Scalar(0, 255, 0), 2);
            }
        }
        
    }
    cap.release();
    return 0;

4:效果展示,这是我自己模型的效果,我是用的是图片。
在这里插入图片描述
5:使用摄像头和Wafer检测模型无法检测出摄像头的任何内容。因为题主机器不太好,训练coco的yolov5s模型要好几天,所以就放弃了。不过也可以给大家看看效果。
在这里插入图片描述

到此 部署工作基本就算完成了,如果有问题,欢迎讨论。

  • 3
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值