QT部署pytorch深度学习模型(CMake篇)

本文详细介绍了如何在QT中使用CMake部署PyTorch深度学习模型,包括模型转换、环境搭建、配置环境变量、CMake项目创建及代码实现,最后展示了部署结果。
摘要由CSDN通过智能技术生成

前言:

本篇博客主要的应用场景是在你的手里已有一个训练好的pytorch图像预测模型,而你需要将其部署到Qt中进行相应的程序开发。

本篇博客将手把手教你实现QT部署pytorch深度学习模型!

实现思路:

首先,将PyTorch模型转换为C++代码,可以使用TorchScript来将PyTorch模型转换为TorchScript格式,然后将其保存为.pt文件。(TorchScript是PyTorch的一种静态图表示形式,可以在不需要Python环境的情况下加载和运行模型)

然后,下载CMake以使得我们的Qt能够检测到并使用cmake而非qmake,下载Visual Studio2017以及MSVC2017方便调试以及提供相关运行环境。

其次,在相应的官方处获取对应版本的libtorch库(torch的前端C++库)和opencv库(用于调取图像预测所需要的图像)帮助我们能在Qt上调取使用我们部署模型时所需要调用的函数或使用的语法,为确保能够正常使用上述两个库还应将两者的下载路径添加到环境变量。

最后在Qt编写相关代码实现pytorch深度学习模型的部署。

emm...  具体思路大致就这样吧!

环境搭建:

Qt5.14.2(安装时注意勾选带MSVC2017字眼的且建议断网安装可以省一些麻烦)

CMake (cmake-gui)

Visual Studio2017

Libtorch

Opencv-4.9.0-windows

MSVC2017

需要注意的是相应的下载时记住自己选择的是release还是debug,这里由于我后续需要对程序做打包处理故选择了release

部署流程:

首先应确保你的环境搭建是没问题的,下载的Libtorch里有图1.1这些文件

c9fdd30389b8488ea19fefa6a667c5dd.png

图1.1

 

下载的opencv库里有图1.2这些文件

1def8f4ec6264d09bb3ae42a8fd49a83.png

图1.2

当我们下载得到所需要的文件后,便可以开始添加相应的环境变量了。

可以打开桌面的搜索框搜索环境变量找到编辑系统环境变量进入,然后点击环境变量,找到系统变量一栏中的path,在里面新建并添加如图1.3文件路径然后全部窗口选择确定,否则可能会出现未设置成功的情况,必要时可以重启一下电脑。

fbaf58fc634d4647b4a48860f30421cf.png

图1.3

配置好环境变量后,我们打开Qt,点击工具里的选项确保MSCV2017不是黄色的三角感叹号,如果你遇到了,那么可能的原因是Windows Performance Toolkit未配置
解决方法
依次进入:控制面板——程序——卸载程序——找到“ Windows Software Development Kit ”;
选中右键——更改;选择“Change”;
勾选“Windows Performance Toolkit”,点击“Change”保存即可;

然后创建cmake项目

9207f7d65b4149c78a88da0eff0ad3fe.png

图1.4

可参考

  • 19
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
### 回答1: 使用Qt调用深度学习模型的一种方式是使用TensorFlow C++ API或PyTorch C++ API。以下是一个使用TensorFlow C++ API的示例代码: ```cpp #include <tensorflow/c/c_api.h> int main(int argc, char** argv) { // Load the SavedModel TF_SessionOptions* session_options = TF_NewSessionOptions(); TF_Status* status = TF_NewStatus(); TF_Graph* graph = TF_NewGraph(); TF_Session* session = TF_LoadSessionFromSavedModel(session_options, status, "path/to/savedmodel", nullptr, 0, graph, nullptr); // Create input tensor const int n_dims = 4; const int64_t dims[n_dims] = {1, height, width, 3}; const int n_values = height * width * 3; float* input_data = new float[n_values]; // Fill input_data with image data TF_Tensor* input_tensor = TF_NewTensor(TF_FLOAT, dims, n_dims, input_data, n_values * sizeof(float), [](void* data, size_t length, void* arg) { delete[] static_cast<float*>(data); }, nullptr); // Create input tensor array TF_Output input_op = {TF_GraphOperationByName(graph, "input_name"), 0}; TF_Tensor* input_tensor_array[1] = {input_tensor}; // Run inference const int n_outputs = 1; TF_Output output_op = {TF_GraphOperationByName(graph, "output_name"), 0}; TF_Tensor* output_tensor_array[n_outputs]; TF_SessionRun(session, nullptr, &input_op, input_tensor_array, 1, &output_op, output_tensor_array, n_outputs, nullptr, 0, nullptr, status); // Retrieve output tensor data float* output_data = static_cast<float*>(TF_TensorData(output_tensor_array[0])); // Process output_data // Clean up TF_CloseSession(session, status); TF_DeleteSession(session, status); TF_DeleteSessionOptions(session_options); TF_DeleteGraph(graph); TF_DeleteStatus(status); return 0; } ``` 其中,`input_name`和`output_name`是模型中输入和输出张量的名称,可以在TensorFlow的SavedModel中查看。`height`和`width`是输入图像的高度和宽度。`input_data`是输入图像的数据,需要自行填充。`output_data`是输出张量的数据,需要自行处理。 需要注意的是,使用TensorFlow C++ API需要安装TensorFlow C++库,并且需要将TensorFlow和Qt的头文件和库文件正确链接。具体的步骤可以参考TensorFlow官方文档。 ### 回答2: Qt(跨平台C++图形用户界面应用程序开发框架)可以用于调用深度学习模型,实现深度学习模型的集成和应用。以下是一种简单的方式: 首先,导入深度学习模型。可以使用一些常见的深度学习框架,如TensorFlow或PyTorch,通过加载预训练的模型权重文件或模型的定义文件将其导入到Qt应用程序中。 接下来,将输入数据转换为模型所需的格式。根据深度学习模型的要求,进行数据预处理和归一化等操作,以便与模型输入相匹配。 然后,通过调用深度学习模型进行推理。将准备好的输入数据传递给模型,调用模型的推理方法,以获得模型的输出结果。 最后,处理和显示模型的输出结果。将输出结果转换成Qt可以显示的格式,如图像、文本或图表等,并在Qt应用程序的界面上展示结果。 需要注意的是,深度学习模型通常需要大量的计算资源和内存空间。在Qt应用程序中调用深度学习模型时,需要考虑系统的性能和资源限制,确保程序的运行效率和稳定性。 总之,通过以上步骤,可以在Qt应用程序中调用深度学习模型,实现各种应用,如图像识别、目标检测、自然语言处理等,为用户提供更加智能和灵活的功能。 ### 回答3: Qt调用深度学习模型可以通过以下步骤实现。 首先,需要将深度学习模型以合适的格式导出。常见的格式包括TensorFlow SavedModel、ONNX和Caffe Model等。这一步确保将模型保存为可以被其他应用程序使用的形式。 接下来,在Qt应用程序中使用导出的深度学习模型,需要将其加载到内存中。可以使用Qt提供的File I/O功能来读取模型文件,或者使用相应的第三方库来加载模型。 一旦模型被成功加载,就可以使用Qt提供的界面组件来处理用户输入和呈现输出。例如,可以使用Qt的图像组件来加载和显示图像,并使用图像作为深度学习模型的输入。 当用户触发某种事件时,比如点击按钮或提交表单,可以激活Qt的相关信号和槽函数,从而调用深度学习模型进行推理。在槽函数中,可以将输入数据传递给深度学习模型,并处理模型的输出结果。 最后,根据需要,可以使用Qt的界面组件来展示模型的输出结果。可以将模型的分类预测结果显示在文本标签上,或者将图像生成的目标分割结果展示在绘制组件上。 总而言之,Qt调用深度学习模型需要将模型导出为可用格式,并加载到Qt应用程序中,使用Qt的界面组件传递输入数据和显示输出结果。通过与其他功能交互,可以实现一个能够使用深度学习模型的交互式Qt应用程序。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值