使用onnx推理语义分割

# -*-coding: utf-8 -*-
import numpy as np
import cv2
import onnxruntime

# 图片预处理
def image_pre(image):
    # BGR转为RGB
    img = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
    # 640*640这里填写你要resize大小
    img = cv2.resize(np.array(img), (640, 640), interpolation=cv2.INTER_CUBIC).astype(np.float32)
    img /= 255.0 
    img -= [0.485, 0.456, 0.406]
    img /= [0.229, 0.224, 0.225]
    #HWC--->CHW
    img = img.transpose(2, 0, 1)
    #CHW---> 1,C,H,W
    img = np.expand_dims(img, axis=0)
    return img

def coverLabelToGroup6(seg):
    #注意:这里label是RGB的,pattle填写你的类别对应的label标签,
    palette = [[109, 63, 21], [0, 102, 0], [0, 255, 0], [255, 153, 203], [255, 255, 0],
               [255, 0, 0], [101, 0, 0], [0, 0, 255], [154, 205, 255], [127, 127, 127]]
    color_seg = np.zeros((seg.shape[0], seg.shape[1], 3), dtype=np.uint8)
    for label, color in enumerate(palette):
        color_seg[seg == label, :] = color
    return color_seg

# 输入图片的路径
image = cv2.imread("")
img = image_pre(image)
# onnx路径
onnx_model_path = ""
resnet_session = onnxruntime.InferenceSession(onnx_model_path)
inputs = {resnet_session.get_inputs()[0].name: img}
outs = resnet_session.run(None, inputs)

real_outs = outs[0].argmax(axis=1)[0]
output = coverLabelToGroup6(real_outs)
output = cv2.cvtColor(output, cv2.COLOR_RGB2BGR)
cv2.imshow("output",output)
cv2.waitKey(0)

因为不想下载torch和torchvision,直接转onnx推理了,直接用cv2代替

def get_test_transform():
    return transforms.Compose([
        transforms.Resize([640, 640]),
        transforms.ToTensor(),
        transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
    ])
  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个简单的 C++ OpenCV DNN 推理代码示例,使用 ONNX 格式的 U-Net 模型进行语义分割: ```c++ #include <opencv2/dnn/dnn.hpp> #include <opencv2/imgproc/imgproc.hpp> #include <opencv2/highgui/highgui.hpp> using namespace cv; using namespace cv::dnn; int main(int argc, char** argv) { // 读取模型文件 const string model_file_path = "unet.onnx"; Net net = readNetFromONNX(model_file_path); // 读取输入图像 const string input_file_path = "input.jpg"; Mat input_image = imread(input_file_path); // 预处理输入图像 Mat input_blob = blobFromImage(input_image, 1.0 / 255.0, Size(572, 572), Scalar(0, 0, 0), true, false); // 运行推理 Mat output_blob; net.setInput(input_blob); net.forward(output_blob); // 后处理输出结果 Mat output_image; output_blob = output_blob.reshape(1, 388 * 388); output_blob.convertTo(output_blob, CV_8UC1, 255.0); applyColorMap(output_blob, output_image, COLORMAP_JET); // 显示输出结果 imshow("Output", output_image); waitKey(0); return 0; } ``` 这个示例代码假设已经有了一个 ONNX 格式的 U-Net 模型文件 `unet.onnx` 和一个输入图像文件 `input.jpg`。代码中首先使用 `readNetFromONNX` 函数读取了模型文件,然后使用 `imread` 函数读取了输入图像。 接下来,代码中使用 `blobFromImage` 函数将输入图像转换成网络需要的输入格式,并使用 `setInput` 函数将输入数据设置到网络中,使用 `forward` 函数进行推理,得到输出结果。 最后,代码中使用 `reshape` 函数和 `convertTo` 函数对输出结果进行后处理,然后使用 `applyColorMap` 函数将结果可视化,使用 `imshow` 函数显示输出结果,使用 `waitKey` 函数等待用户按下键盘。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值