基于Tensorflow的自定义对象识别检测模型的训练及视频实时识别(一)

开题

经历了近一周的摸索,Tensorflow这个深度学习框架,也算是有一个了结,总结一下吧!
这个流程一下子看上去涉及的东西的确是很大的,所以细分为以下步骤:

吃水不忘打井人,感谢:
https://blog.csdn.net/dy_guox/article/details/79111949

一、 Python 、Tensorflow 安装及环境配置
二、 Object Detection API配置
三、 LabelImage对训练样本标注处理
四、 标注后训练样本验证样本格式转换tfrecord
五、 训练模型选取及参数配置
六、 定位在Object Detection文件下train.py开始训练
七、 上一步训练结果固化成pb模型
八、 视频流中调用模型预测

下面的文章我也将对以上步骤从个人开发角度阐述下:

一、python 、tensorflow的安装问题此处不做说明(tensorflow我用的cpu版本、IDE:PyCharm)

二、关于 Object Detection API的配置

1、请前往官方地址下载 https://github.com/tensorflow/models
发现现在通过git和直接download下载很慢甚至下载一半就挂掉了,所以百度网盘提供目前我训练用的models文件(非最新版)获取连接如下:
链接:https://pan.baidu.com/s/14lKw1nos0quZ4P7LetOVvg
提取码:4i6d
TIM截图20190424152625.png
下面操作都是在models/research下

2、在 https://github.com/google/protobuf/releases 网站中选择windows 版本(最下面),解压后将bin文件夹中的protoc.exe放到C:\Windows下或将bin加入环境变量如:D:\protoc-3.4.0-win32\bin加入path中

进入models\research\目录下 按shift + 右键 打开命令行窗口,输入:

protoc object_detection/protos/*.proto --python_out=.

对proto文件进行编译,完成后会生成对应名称的py脚本文件

3、将models\reserach 和models\research\slim 加入环境变量

4、验证环境:
在models\research下 按shift + 右键 开启命令行输入

python object_detection/builders/model_builder_test.py

等待一秒左右,若下方出现 ok 字样 不报错,说明环境配置成功

5、跑通官方示例:
在PyCharm下打开终端定位到models\research\object_detection下 输入

jupyter-notebook

将自动打开浏览器如下
TIM截图20190424154438.png

TIM截图20190424155200.png

点击上方标记的object_detection_tutorial.ipynb 进入可编辑脚本处理页
TIM截图20190424155438.png

点击Run All 等待一会,第一次执行会从脚本链接中下载模型所以可能慢很多,若当前标签页一直处于TIM截图20190424155642.png
说明脚本仍在执行中,耐心等待沙漏消失,运行完毕后最下方可见【狗】和【滑翔伞】图片识别结果
TIM截图20190424160154.png

此处便是关于模型调用的官方样例,以后关于视频流的实时监测也将在此基础上优化,这也是后话了,后面在介绍吧!

三、自定义对象处理

1、训练样品及验证样品图片标注

官方下载地址LabelImage https://github.com/tzutalin/labelImg/releases
解压放在非中文路径下,新建文件夹分别保存训练和验证图片、标注后训练和验证的xml
TIM截图20190424161428.png
TIM截图20190424161437.png
双击labelImage.exe
TIM截图20190424162403.png
(绿色的背景刚好影响了标注框,不太明显)

  1. Open Dir 选择要标记的图片源
  2. Change Save Dir 选择标记后要保存xml的路径
  3. 下一张、上一张、保存
  4. Create RextBox 点击开始标记
  5. raccoon 为标签,即要识别的物体名称(如:dog cat person car…)

注:对图片标注不仅仅是体力活,其实也是技术活,打标区域不仅需要涵盖物体可见区域,还要尽量减少无关背景在存在

2、xml标注文件转tfrecord
import os
import glob
import pandas as pd
import xml.etree.ElementTree as ET


def xml_to_csv(path):
    xml_list = []
    for xml_file in glob.glob(path + '/*.xml'):
        tree = ET.parse(xml_file)
        root = tree.getroot()
        for member in root.findall('object'):
            value = (root.find('filename').text,
                     int(root.find('size')[0].text),
                     int(root.find('size')[1].text),
                     member[0].text,
                     int(member[4][0].text),
                     int(member[4][1].text),
                     int(member[4][2].text),
                     int(member[4][3].text)
                     )
            xml_list.append(value)
    column_name = ['filename', 'width', 'height', 'class', 'xmin', 'ymin', 'xmax', 'ymax']
    xml_df = pd.DataFrame(xml_list, columns=column_name)
    return xml_df


def main():
    # xml文件的路径
    image_path = os.path.join(os.getcwd(), 'data/train_xml')
    xml_df = xml_to_csv(image_path)
    # 输出路径
    xml_df.to_csv('data/train.csv', index=None)
    print('Successfully converted annotations  xml to csv.')

    image_path = os.path.join(os.getcwd(), data/'test_xml')
    xml_df = xml_to_csv(image_path)
    # 输出路径
    xml_df.to_csv('data/text.csv', index=None)
    print('Successfully converted  textxml  xml to csv.')


main()

将上一步训练和验证csv文件转换tfrecord

from __future__ import division
from __future__ import print_function
from __future__ import absolute_import

import os
import io
import pandas as pd
import tensorflow as tf

from PIL import Image
from object_detection.utils import dataset_util
from collections import namedtuple, OrderedDict

flags = tf.app.flags
# 几个输入的参数,
# python generate_tfrecord.py --csv_input=data/train_labels.csv --output_path=test/data/train.record --image_dir=images
flags.DEFINE_string('csv_input', '', 'Path to the CSV input')
flags.DEFINE_string('output_path', '', 'Path to output TFRecord')
flags.DEFINE_string('image_dir', '', 'Path to images')
FLAGS = flags.FLAGS


# TO-DO replace this with label map
# 改成你的类别
def class_text_to_int(row_label):
    if row_label == 'cigarette':  # cigarette  raccoon
        return 1
    else:
        return 0


def split(df, group):
    data = namedtuple('data', ['filename', 'object'])
    gb = df.groupby(group)
    return [data(filename, gb.get_group(x)) for filename, x in zip(gb.groups.keys(), gb.groups)]


def create_tf_example(group, path):
    with tf.gfile.GFile(os.path.join(path, '{}'.format(group.filename)), 'rb') as fid:
        encoded_jpg = fid.read()
    encoded_jpg_io = io.BytesIO(encoded_jpg)
    image = Image.open(encoded_jpg_io)
    width, height = image.size

    filename = group.filename.encode('utf8')
    image_format = b'jpg'
    xmins = []
    xmaxs = []
    ymins = []
    ymaxs = []
    classes_text = []
    classes = []

    for index, row in group.object.iterrows():
        xmins.append(row['xmin'] / width)
        xmaxs.append(row['xmax'] / width)
        ymins.append(row['ymin'] / height)
        ymaxs.append(row['ymax'] / height)
        classes_text.append(row['class'].encode('utf8'))
        classes.append(class_text_to_int(row['class']))

    tf_example = tf.train.Example(features=tf.train.Features(feature={
        'image/height': dataset_util.int64_feature(height),
        'image/width': dataset_util.int64_feature(width),
        'image/filename': dataset_util.bytes_feature(filename),
        'image/source_id': dataset_util.bytes_feature(filename),
        'image/encoded': dataset_util.bytes_feature(encoded_jpg),
        'image/format': dataset_util.bytes_feature(image_format),
        'image/object/bbox/xmin': dataset_util.float_list_feature(xmins),
        'image/object/bbox/xmax': dataset_util.float_list_feature(xmaxs),
        'image/object/bbox/ymin': dataset_util.float_list_feature(ymins),
        'image/object/bbox/ymax': dataset_util.float_list_feature(ymaxs),
        'image/object/class/text': dataset_util.bytes_list_feature(classes_text),
        'image/object/class/label': dataset_util.int64_list_feature(classes),
    }))
    return tf_example


def main(_):
    writer = tf.python_io.TFRecordWriter(FLAGS.output_path)
    path = os.path.join(FLAGS.image_dir)
    examples = pd.read_csv(FLAGS.csv_input)
    grouped = split(examples, 'filename')
    for group in grouped:
        tf_example = create_tf_example(group, path)
        writer.write(tf_example.SerializeToString())

    writer.close()
    output_path = os.path.join(os.getcwd(), FLAGS.output_path)
    print('Successfully created the TFRecords: {}'.format(output_path))


if __name__ == '__main__':
    tf.app.run()

'''
cd 到generate_tfrecord.py该文件目录下
执行命令:python generate_tfrecord.py --csv_input=data/train_labels.csv --output_path=test/data/train.record --image_dir=images
解释:
python generate_tfrecord.py --csv_input=[train_labels.csv的路径] --output_path=[输出train.record的路径] --image_dir=[输入图片的路径]
最终得到:
train.record 和 test.record

注:在xml 转csv 和csv转tfrecord过程中 若出现错误,请检查
1. 图片和xml 是否一 一 对 应
2. 路径问题,最为保险的是绝对路径和双斜杠 如:D:\PyCharm\raccoon_dataset_sample\testimg
r 、t、n等开头的直接双斜杠处理省得有歧义

结语:

由于篇幅限制这篇就到这里吧,下一篇在继续吧!

基于Tensorflow的自定义对象识别检测模型的训练及视频实时识别(二)

  • 1
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
TensorFlow是一个广泛应用于机器学习和人工智能的开源框架,它提供了强大的工具和库来构建、训练和评估各种深度学习模型,包括人脸识别模型。 使用TensorFlow进行人脸识别模型训练可以分为以下几个步骤: 1. 数据收集:首先需要收集足够数量和多样性的人脸图像数据。这些数据集将被用于训练模型和评估模型的性能。 2. 数据预处理:对收集到的人脸图像数据进行预处理是必要的。这可能包括对图像进行裁剪、调整大小、灰度化、增强对比度等操作,以使数据更有用和适合模型的输入。 3. 构建模型:使用TensorFlow的API,如Keras或Estimator,可以构建人脸识别模型。常用的模型架构包括卷积神经网络(CNN)和深度残差网络(ResNet),但也可以根据具体需求进行自定义模型的构建。 4. 模型训练:将预处理后的数据传入模型并进行训练。这包括定义损失函数和优化算法,通常采用的是反向传播算法。 5. 模型评估:训练完成后,需要对模型进行评估以了解其性能。可以使用一些指标,如准确率、召回率和F1分数等。 6. 模型调优:根据评估结果,可以对模型进行调优,如调整模型的超参数、增加数据集的规模、使用数据增强技术等,以提高模型的性能。 7. 模型部署:完成模型训练和调优后,可以将训练好的模型部署到实际应用中进行测试和应用。 通过以上步骤,可以使用TensorFlow框架训练一个有效的人脸识别模型,并根据实际需求对模型进行调整和优化,提高模型的准确性和性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值