最近在使用libtorch部署项目,在此记录一下img->tensor,tensor->img。
img到tensor
//大体思路:img->mat->tensor
cv::Mat image = cv::imread("gt_4.jpg");
torch::Tensor ten_img = torch::from_blob(image.data, {1, image.rows, image.cols, 3}, torch::kByte).to(device);
ten_img = ten_img.permute({0, 3, 1, 2});
ten_img = ten_img.toType(torch::kFloat);
ten_img = ten_img.div(255);
int h = ten_img.sizes()[2], w = ten_img.sizes()[3];
tensor到img
//大致流程:tensor -> mat -> .jpg
//ten_wrp为tensor数据,squeeze()只用于batchsize为1的场景,permute 是将存储格式从pytorch形式转成opencv格式
ten_wrp = ten_wrp.to(torch::kCPU).squeeze().detach().permute({1, 2, 0});
//在处理前对cvmat中的值做了归一化,所以现在要*255恢复,同时对于不在0-255范围内的数据,需要做限制;cvmat的数据格式是8UC3,所以torch tensor要提前转换成kU8
ten_wrp = ten_wrp.mul(255).clamp(0, 255).to(torch::kU8);
//h, w为img的高和宽
cv::Mat resultImg(h, w, CV_8UC3);
//将ten_wrp数据存为resultImg格式
std::memcpy((void *) resultImg.data, ten_wrp.data_ptr(), sizeof(torch::kU8) * ten_wrp.numel());
//保存为result.jpg
cv::imwrite("result.jpg",resultImg);