c++调用tensorflow的pb模型

#include<iostream>
#include<fstream>
#include<opencv2/opencv.hpp>
#include<opencv2/dnn.hpp>

#include <Windows.h>
#pragma comment( lib, "winmm.lib")

using namespace std;
using namespace cv;
using namespace cv::dnn;

Mat predict(Net net, char * dir)
{
	Mat img = imread(dir, -1);
	Mat inputBlob = blobFromImage(img, 1.0 / 255.0, Size(340, 340), Scalar(), false, false);

	net.setInput(inputBlob);

	Mat detection = net.forward();

	return detection;
}

	
int main()
{
	string strResult, strTemp;
	char czPath[256] = { 0 };
	GetModuleFileName(NULL, czPath, 256);  //获取全路径
	string strPath = czPath;
	cout << "文件名(带全路径) : " << strPath.c_str() << endl;
	int nPos = strPath.find('x'); //查找最后一个 \ 出现的位置
	strTemp = strPath.substr(0, nPos);
	String weight = strTemp+"tmp\\new_tensor_model.pb";
	cout<< weight<< endl;

	Net net = readNetFromTensorflow(weight);

	//设置计算后台(GPU调用,如需修改按ctrl+点击setPreferableTarget)
	net.setPreferableBackend(DNN_BACKEND_OPENCV);
	net.setPreferableTarget(DNN_TARGET_OPENCL);

	/*打出节点
    vector<string> outLayersNames = net.getLayerNames();
	int lens = outLayersNames.size();
	cout << lens << endl;
	for(int i = 0; i < lens; i++)
	{ 
		cout << outLayersNames[i] << endl;
	}*/


	DWORD t1, t2;
	char dir[] = "D:/hyd/silk_baby2/si/2/l2_9.jpg";
	Mat detection1 = predict(net, dir);
	t1 = GetTickCount();
	Mat detection = predict(net, dir);
	cout << detection << endl;
	t2 = GetTickCount();
	cout<< (t2 - t1)*1.0 / 1000 << endl;
}

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在使用TensorFlow编译库之前,需要先安装TensorFlow和Protocol Buffers(PB)库。 1. 安装TensorFlow 可以通过以下命令来安装TensorFlow: ``` pip install tensorflow ``` 2. 安装Protocol Buffers(PB)库 可以通过以下命令来安装PB库: ``` pip install protobuf ``` 3. 编译PB模型 在编译PB模型之前,需要先将模型转换为PB格式。可以使用TensorFlow提供的freeze_graph.py脚本来将模型转换为PB格式: ``` python freeze_graph.py --input_graph=model.pb --input_checkpoint=model.ckpt --output_graph=frozen_model.pb --output_node_names=output_node_name ``` 其中,model.pb模型的GraphDef文件,model.ckpt是模型的checkpoint文件,output_node_name是模型输出节点的名称。 接下来,使用TensorFlow提供的tensorflow.python.compiler.tensorrt.convert()函数来编译PB模型: ``` import tensorflow as tf # 加载PB模型 with tf.gfile.GFile('frozen_model.pb', "rb") as f: graph_def = tf.GraphDef() graph_def.ParseFromString(f.read()) # 编译PB模型 trt_graph = tf.python.compiler.tensorrt.convert( graph_def, max_batch_size=1, maximum_cached_engines=1, precision_mode="FP16", minimum_segment_size=3 ) # 保存编译后的模型 with tf.gfile.GFile('trt_model.pb', "wb") as f: f.write(trt_graph.SerializeToString()) ``` 其中,max_batch_size表示最大批处理大小,precision_mode表示推理精度,minimum_segment_size表示最小分段大小。 经过编译后,可以使用TensorRT来加速模型的推理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值