fasterrcnn训练自己的数据

http://blog.csdn.net/sinat_30071459/article/details/51332084

说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。

(做数据集的过程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212


Faster-RCNN源码下载地址:

Matlab版本:https://github.com/ShaoqingRen/faster_rcnn

Python版本:https://github.com/rbgirshick/py-faster-rcnn

本文用到的是Python版本,在Linux下运行。

Matlab版本的训练过程:http://blog.csdn.net/sinat_30071459/article/details/50546891

准备工作:

1.配置caffe

     这个不多说,网上教程很多。

2.其他的注意事项

      这里说的挺详细了,认真看看吧。地址:https://github.com/rbgirshick/py-faster-rcnn(主要内容如下)

下面大概翻译一下上面网址的内容吧。

(1)安装cython, python-OpenCV,easydict

  1. pip install cython  
  2. pip install easydict  
  3. apt-get install python-opencv  

(2)下载py-faster-rcnn

  1. # Make sure to clone with --recursive  
  2. git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git  

如图:


(3)进入py-faster-rcnn/lib

   执行make

如图:

(4)进入py-faster-rcnn\caffe-fast-rcnn

执行 cp Makefile.config.example Makefile.config

然后,配置Makefile.config文件,可参考我的配置:Makefile.config文件

配置好Makefile.config文件后,执行:

  1. make -j8 && make pycaffe  

如图:


(5)下载VOC2007数据集

提供一个百度云地址:http://pan.baidu.com/s/1mhMKKw4

解压,然后,将该数据集放在py-faster-rcnn\data下,用你的数据集替换VOC2007数据集。(替换Annotations,ImageSets和JPEGImages)

(用你的Annotations,ImagesSets和JPEGImages替换py-faster-rcnn\data\VOCdevkit2007\VOC2007中对应文件夹)

(6)下载ImageNet数据集下预训练得到的模型参数(用来初始化)

提供一个百度云地址:http://pan.baidu.com/s/1hsxx8OW

解压,然后将该文件放在py-faster-rcnn\data下

下面是训练前的一些修改。

1.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_fast_rcnn_train.pt修改

  1. layer {  
  2.   name: 'data'  
  3.   type: 'Python'  
  4.   top: 'data'  
  5.   top: 'rois'  
  6.   top: 'labels'  
  7.   top: 'bbox_targets'  
  8.   top: 'bbox_inside_weights'  
  9.   top: 'bbox_outside_weights'  
  10.   python_param {  
  11.     module: 'roi_data_layer.layer'  
  12.     layer: 'RoIDataLayer'  
  13.     param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1  
  14.   }  
  15. }  

  1. layer {  
  2.   name: "cls_score"  
  3.   type: "InnerProduct"  
  4.   bottom: "fc7"  
  5.   top: "cls_score"  
  6.   param { lr_mult: 1.0 }  
  7.   param { lr_mult: 2.0 }  
  8.   inner_product_param {  
  9.     num_output: 16 #按训练集类别改,该值为类别数+1  
  10.     weight_filler {  
  11.       type: "gaussian"  
  12.       std: 0.01  
  13.     }  
  14.     bias_filler {  
  15.       type: "constant"  
  16.       value: 0  
  17.     }  
  18.   }  
  19. }  

  1. layer {  
  2.   name: "bbox_pred"  
  3.   type: "InnerProduct"  
  4.   bottom: "fc7"  
  5.   top: "bbox_pred"  
  6.   param { lr_mult: 1.0 }  
  7.   param { lr_mult: 2.0 }  
  8.   inner_product_param {  
  9.     num_output: 64 #按训练集类别改,该值为(类别数+1)*4  
  10.     weight_filler {  
  11.       type: "gaussian"  
  12.       std: 0.001  
  13.     }  
  14.     bias_filler {  
  15.       type: "constant"  
  16.       value: 0  
  17.     }  
  18.   }  
  19. }  

2.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_rpn_train.pt修改

  1. layer {  
  2.   name: 'input-data'  
  3.   type: 'Python'  
  4.   top: 'data'  
  5.   top: 'im_info'  
  6.   top: 'gt_boxes'  
  7.   python_param {  
  8.     module: 'roi_data_layer.layer'  
  9.     layer: 'RoIDataLayer'  
  10.     param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1  
  11.   }  
  12. }  

3.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_fast_rcnn_train.pt修改

  1. layer {  
  2.   name: 'data'  
  3.   type: 'Python'  
  4.   top: 'data'  
  5.   top: 'rois'  
  6.   top: 'labels'  
  7.   top: 'bbox_targets'  
  8.   top: 'bbox_inside_weights'  
  9.   top: 'bbox_outside_weights'  
  10.   python_param {  
  11.     module: 'roi_data_layer.layer'  
  12.     layer: 'RoIDataLayer'  
  13.     param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1  
  14.   }  
  15. }  
  1. layer {  
  2.   name: "cls_score"  
  3.   type: "InnerProduct"  
  4.   bottom: "fc7"  
  5.   top: "cls_score"  
  6.   param { lr_mult: 1.0 }  
  7.   param { lr_mult: 2.0 }  
  8.   inner_product_param {  
  9.     num_output: 16 #按训练集类别改,该值为类别数+1  
  10.     weight_filler {  
  11.       type: "gaussian"  
  12.       std: 0.01  
  13.     }  
  14.     bias_filler {  
  15.       type: "constant"  
  16.       value: 0  
  17.     }  
  18.   }  
  19. }  

  1. layer {  
  2.   name: "bbox_pred"  
  3.   type: "InnerProduct"  
  4.   bottom: "fc7"  
  5.   top: "bbox_pred"  
  6.   param { lr_mult: 1.0 }  
  7.   param { lr_mult: 2.0 }  
  8.   inner_product_param {  
  9.     num_output: 64 #按训练集类别改,该值为(类别数+1)*4  
  10.     weight_filler {  
  11.       type: "gaussian"  
  12.       std: 0.001  
  13.     }  
  14.     bias_filler {  
  15.       type: "constant"  
  16.       value: 0  
  17.     }  
  18.   }  
  19. }  

4.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_rpn_train.pt修改

  1. layer {  
  2.   name: 'input-data'  
  3.   type: 'Python'  
  4.   top: 'data'  
  5.   top: 'im_info'  
  6.   top: 'gt_boxes'  
  7.   python_param {  
  8.     module: 'roi_data_layer.layer'  
  9.     layer: 'RoIDataLayer'  
  10.     param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1  
  11.   }  
  12. }  

5.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/faster_rcnn_test.pt修改

  1. layer {  
  2.   name: "cls_score"  
  3.   type: "InnerProduct"  
  4.   bottom: "fc7"  
  5.   top: "cls_score"  
  6.   inner_product_param {  
  7.     num_output: 16 #按训练集类别改,该值为类别数+1  
  8.   }  
  9. }  

  1. layer {  
  2.   name: "bbox_pred"  
  3.   type: "InnerProduct"  
  4.   bottom: "fc7"  
  5.   top: "bbox_pred"  
  6.   inner_product_param {  
  7.     num_output: 64 #按训练集类别改,该值为(类别数+1)*4  
  8.   }  
  9. }  

6.py-faster-rcnn/lib/datasets/pascal_voc.py修改

(1)
  1. class pascal_voc(imdb):  
  2.     def __init__(self, image_set, year, devkit_path=None):  
  3.         imdb.__init__(self, 'voc_' + year + '_' + image_set)  
  4.         self._year = year  
  5.         self._image_set = image_set  
  6.         self._devkit_path = self._get_default_path() if devkit_path is None \  
  7.                             else devkit_path  
  8.         self._data_path = os.path.join(self._devkit_path, 'VOC' + self._year)  
  9.         self._classes = ('__background__', # always index 0  
  10.                          '你的标签1','你的标签2',你的标签3','你的标签4'  
  11.                       )  

上面要改的地方是

修改训练集文件夹:

  1. self._data_path = os.path.join(self._devkit_path, 'VOC'+self._year)  

用你的数据集直接替换原来VOC2007内的Annotations,ImageSets和JPEGImages即可,以免出现各种错误。


修改标签:

  1. self._classes = ('__background__', # always index 0  
  2.                          '你的标签1','你的标签2','你的标签3','你的标签4'  
  3.                       )  

修改成你的数据集的标签就行。


(2)

  1. cls = self._class_to_ind[obj.find('name').text.lower().strip()]  
这里把标签转成小写,如果你的标签含有大写字母,可能会出现KeyError的错误,所以建议标签用小写字母。

(去掉lower应该也行)

建议训练的标签还是用小写的字母,如果最终需要用大写字母或中文显示标签,可参考:

http://blog.csdn.net/sinat_30071459/article/details/51694037

7.py-faster-rcnn/lib/datasets/imdb.py修改

该文件的append_flipped_images(self)函数修改为:
  1. def append_flipped_images(self):  
  2.         num_images = self.num_images  
  3.         widths = [PIL.Image.open(self.image_path_at(i)).size[0]  
  4.                   for i in xrange(num_images)]  
  5.         for i in xrange(num_images):  
  6.             boxes = self.roidb[i]['boxes'].copy()  
  7.             oldx1 = boxes[:, 0].copy()  
  8.             oldx2 = boxes[:, 2].copy()  
  9.             boxes[:, 0] = widths[i] - oldx2 - 1  
  10.             print boxes[:, 0]  
  11.             boxes[:, 2] = widths[i] - oldx1 - 1  
  12.             print boxes[:, 0]  
  13.             assert (boxes[:, 2] >= boxes[:, 0]).all()  
  14.             entry = {'boxes' : boxes,  
  15.                      'gt_overlaps' : self.roidb[i]['gt_overlaps'],  
  16.                      'gt_classes' : self.roidb[i]['gt_classes'],  
  17.                      'flipped' : True}  
  18.             self.roidb.append(entry)  
  19.         self._image_index = self._image_index * 2  


这里assert (boxes[:, 2] >= boxes[:, 0]).all()可能出现AssertionError,具体解决办法参考:

!!!为防止与之前的模型搞混,训练前把output文件夹删除(或改个其他名),还要把py-faster-rcnn/data/cache中的文件和

py-faster-rcnn/data/VOCdevkit2007/annotations_cache中的文件删除(如果有的话)。

至于学习率等之类的设置,可在py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt中的solve文件设置,迭代次数可在py-faster-rcnn\tools的train_faster_rcnn_alt_opt.py中修改:

  1. max_iters = [80000, 40000, 80000, 40000]  
分别为4个阶段(rpn第1阶段,fast rcnn第1阶段,rpn第2阶段,fast rcnn第2阶段)的迭代次数。可改成你希望的迭代次数。

如果改了这些数值,最好把py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt里对应的solver文件(有4个)也修改,stepsize小于上面修改的数值。

8.开始训练

进入py-faster-rcnn,执行:

  1. ./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_voc  

这样,就开始训练了。

9.测试

将训练得到的py-faster-rcnn\output\faster_rcnn_alt_opt\***_trainval中ZF的caffemodel拷贝至py-faster-rcnn\data\faster_rcnn_models(如果没有这个文件夹,就新建一个),然后,修改:

py-faster-rcnn\tools\demo.py,主要修改:

  1. CLASSES = ('__background__',  
  2.            '你的标签1', '你的标签2', '你的标签3', '你的标签4')  

改成你的数据集标签;


  1. NETS = {'vgg16': ('VGG16',  
  2.                   'VGG16_faster_rcnn_final.caffemodel'),  
  3.         'zf': ('ZF',  
  4.                   'ZF_faster_rcnn_final.caffemodel')}  

上面ZF的caffemodel改成你的caffemodel。

  1. im_names = ['1559.jpg','1564.jpg']  

改成你的测试图片。(测试图片放在py-faster-rcnn\data\demo中)

10.结果

在py-faster-rcnn下,

执行:

  1. ./tools/demo.py --net zf  

或者将默认的模型改为zf:

  1. parser.add_argument('--net', dest='demo_net'help='Network to use [vgg16]',  
  2.                         choices=NETS.keys(), default='vgg16')  
修改:
  1. default='zf'  
执行:
  1. ./tools/demo.py  











展开阅读全文

没有更多推荐了,返回首页