在android手机上运行自己训练的MobileNet模型识别手势数字,通过修改官方例程app实现

使用MoblieNet训练了一个识别数字手势的模型,先看看识别效果。



下面是教程:

首先要从git上下载官方的例程,https://github.com/tensorflow/tensorflow

之后分为两步,

第一步搜集足够多的样本图片,使用官方例程中的tensorflow/examples/image_retraining训练出自己的模型。

由于找不到合适的手势图片集,我使用手机的连拍功能,找了几个小伙伴,一起拍了大概三千张照片,制作了一个简单的手势图片集。


之后再image_retraining目录下建立一个文件夹,将图片放入,在子文件夹中分类,子文件夹名称就是类别名称。

之后运行retrain.py脚本

python retrain.py     --image_dir hands   --architecture mobilenet_1.0_224 --output_labels hands_labels.txt --output_graph hands_graph.pb 
image_dir 是图片文件夹名
architecture 是所选用的模型
output_labels 是输出的模型名
output_graph 是模型对应的label文件

其中label和graph文件使我们需要的两个文件,成功生成这两个文件后可以进行第二步。


第二步是修改tensorflow/examples/android这个程序。

先安装android studio,然后选择open project,打开tensorflow/examples/android,编译运行,中间需要什么库就安装什么库。运行成功后手机上会安装四个demo app,挺有意思,大家可以玩玩。

我们通过修改其中的TF classify,在其中运行我们刚刚训练的自己的模型。

首先将刚刚生成的pb和txt文件放入tensorflow/examples/android/asset文件夹内

修改tensorflow/examples/android/src/org/tensorflow/demo/ClassifierActivity.java中的

	private static final int INPUT_SIZE = 224;   
	private static final int IMAGE_MEAN = 128;
	private static final float IMAGE_STD = 128 ;
	private static final String INPUT_NAME = "input";
	private static final String OUTPUT_NAME = "final_result";

	private static final String MODEL_FILE = "file:///android_asset/hands_graph.pb";   (改成自己的pb)
	private static final String LABEL_FILE =
	    "file:///android_asset/hands_labels.txt";(改成自己的txt文件名)
编译运行,之后就会发现TF classify中已经变成了自己的模型。
  • 8
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
首先,需要下载并安装YOLOv3或YOLOv4,以及OpenCV和Darknet库。接下来,可以按照以下步骤进行自己模型训练和测试。 1. 准备数据集 首先需要准备好训练所需的数据集。数据集应包括图像和相应的标注文件。标注文件应该包含每张图像中存在的物体的类别和位置信息。 2. 生成训练数据 使用OpenCV库的API,将图像和标注文件转换为Darknet所需的格式。可以使用以下代码示例: ``` // Load image cv::Mat image = cv::imread("path/to/image.jpg"); // Load annotation std::vector<Annotation> annotations = load_annotations("path/to/annotation.txt"); // Convert to Darknet format image.convertTo(image, CV_32F, 1.f / 255.f); cv::cvtColor(image, image, cv::COLOR_BGR2RGB); cv::Mat resized_image; cv::resize(image, resized_image, cv::Size(network_width, network_height), cv::INTER_LINEAR); std::vector<float> data(network_width * network_height * 3); for (int c = 0; c < 3; ++c) { for (int i = 0; i < network_width * network_height; ++i) { data[c * network_width * network_height + i] = resized_image.at<cv::Vec3f>(i)[c]; } } std::vector<float> label(num_classes + 5); label[0] = annotations[0].class_id; label[1] = annotations[0].x / image.cols; label[2] = annotations[0].y / image.rows; label[3] = annotations[0].width / image.cols; label[4] = annotations[0].height / image.rows; // Save as Darknet format std::ofstream outfile("path/to/train.txt", std::ios_base::app); outfile << "path/to/image.jpg "; for (int i = 0; i < label.size(); ++i) { outfile << label[i] << " "; } outfile << std::endl; ``` 3. 配置网络 在Darknet中,YOLOv3和YOLOv4的网络配置文件位于cfg/文件夹下。可以使用其中的配置文件,或者根据自己的需求进行修改。 4. 训练模型 使用以下命令开始训练模型: ``` ./darknet detector train path/to/data.data path/to/cfg.cfg path/to/weights.weights ``` 其中,path/to/data.data是数据集的配置文件,path/to/cfg.cfg是网络配置文件,path/to/weights.weights是预训练权重文件(如果有的话)。 5. 测试模型 使用以下命令测试模型: ``` ./darknet detector test path/to/data.data path/to/cfg.cfg path/to/weights.weights path/to/image.jpg ``` 其中,path/to/image.jpg是要测试的图像文件。 6. 使用模型 在C#中使用训练好的模型可以参考Darknet的API,或者使用第三方库,如DarknetDotNet或YOLOSharp。可以使用以下代码示例: ``` // Load model var model = new Darknet(path/to/cfg.cfg, path/to/weights.weights); // Load image var image = CvInvoke.Imread("path/to/image.jpg"); // Convert to Darknet format var input = new Image<Bgr, float>(image) .Resize(model.Width, model.Height, Emgu.CV.CvEnum.Inter.Linear) .Convert<Bgr, float>() .ExtractVector<float>() .ToArray(); // Run model var output = model.Run(input); // Parse output var results = Darknet.ParseOutput(output, model.OutputNames, model.Width, model.Height, num_classes, confidence_threshold, nms_threshold); ``` 其中,path/to/cfg.cfg是网络配置文件,path/to/weights.weights是训练好的权重文件,num_classes是类别数,confidence_threshold是置信度阈值,nms_threshold是非极大值抑制阈值。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值