深度学习目标检测之 R-CNN 系列:用 Faster R-CNN 训练自己的数据(caffe 版)
深度学习目标检测之 R-CNN 系列包含 3 篇文章:
- 深度学习目标检测之 R-CNN 系列: 从 R-CNN 和 Fast R-CNN 到 Faster R-CNN 总览
- 深度学习目标检测之 R-CNN 系列:Faster R-CNN 网络详解
- 深度学习目标检测之 R-CNN 系列:用 Faster R-CNN 训练自己的数据(caffe 版)
1. 前言
原文 中提到了三种训练方法,在 py-faster-rcnn 中给出了两种训练方法,一种就是前一篇文章中介绍过的 4 步法,另一种是 end-to-end 的训练方法。
end-to-end 的方法是后来提出来的,它的优势就是训练更方便,不用来回倒腾,速度更快,精度和 4 步法差不多。更多关于 end-to-end 的介绍可以参考 Ross Girshick 在 ICCV15 上的报告 Training R-CNNs of various velocities -slow, fast, and faster。也可以参考 faster rcnn end2end 训练与测试。
这里将分别介绍 4 步法(faster_rcnn_alt_opt)和 end-to-end 的方式来训练自己的数据。
2.准备工作
由于 py-faster-rcnn 中的代码是 python2.x 的版本,所以如果你用的是 python3.x 的话,需要进行修改,如果不想浪费时间,也可以直接用我已经改好的版本,这个版本就是在原版的基础上进行了从 python2 到 python3 的修改,没有其他的改动。
在开始训练之前,建议先确保 caffe 已经 build 成功,并且成功运行 demo。由于运行 demo 需要预训练好的模型,而直接运行脚本将从国外的站点下载,速度很慢,所以建议先从以下百度云盘下载模型。这些方面的介绍很多,这里就不具体阐述了。
下载 faster_rcnn_models 和 imagenet_models
链接:https://pan.baidu.com/s/1dKkYZwuEJ6cYHIr9FwMw5A
提取码:zb6y
另外值得一提的是,根据自己的硬件条件确定基础网络是用 ZF,VGG16 或者其他。
3. 准备自己的数据
coco 和 voc 格式的数据集都是可以的,这里用的是 voc 格式。我这里用的是一个关于安全帽检测的开放数据集。
如果你想自己制作 voc 格式的数据集可以参考 为目标检测制作PASCAL VOC2007格式的数据集
4. faster_rcnn_alt_opt
准备好数据集后将数据集放到 data 文件夹下,为了尽量的减少出错的可能,建议直接用你的数据集替换原有的 VOCdevkit2007。
1).[VOC2007数据集百度云下载](http://pan.baidu.com/s/1mhMKKw4)。
2).用你自己数据集的Annotations,ImagesSets和JPEGImages替换py-faster-rcnn\data\VOCdevkit2007\VOC2007中对应文件夹。
需要根据自己的数据集的类别更改网络的参数。具体可以参考 Faster-RCNN+ZF用自己的数据集训练模型(Python版本)。
做好准备之后就可以开始训练了。
cd $FRCN_ROOT
./experiments/scripts/faster_rcnn_alt_opt.sh [GPU_ID] [NET] [--set ...]
# GPU_ID is the GPU you want to train on
# NET in {ZF, VGG_CNN_M_1024, VGG16} is the network arch to use
# --set ... allows you to specify fast_rcnn.config options, e.g.
# --set EXP_DIR seed_rng1701 RNG_SEED 1701
比如: ./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_voc
5. end-to-end
考虑到 end-to-end 的方式更节省资源,所以这里采用 VGG16 模型。和 ZF 类似,根据自己的数据集修改模型的相关参数。具体可以参考 训练py-faster rcnn的两种方式以及自己模型的迁移学习。
6. demo
以 end-to-end 方式训练得到的模型为例,修改 ./tools/demo.py 中的class 中的标签, model的路径,名字,以及 prototxt 的路径等,就可以运行 demo了。