基于tensorflow框架下的cascade r-cnn的训练和测试

基于tensorflow框架下的cascade r-cnn的训练和测试

github代码:https://github.com/DetectionTeamUCAS/Cascade-RCNN_Tensorflow

环境:

python = 2.7

tensorflow-gpu = 1.3

cuda8

gpu:1080Ti

 

1.下载预训练模型
resnet101:http://download.tensorflow.org/models/resnet_v1_101_2016_08_28.tar.gz

resnet50:http://download.tensorflow.org/models/resnet_v1_50_2016_08_28.tar.gz

mobile:https://storage.googleapis.com/mobilenet_v2/checkpoints/mobilenet_v2_1.0_224.tgz

解压tar -xzf resnet_v1_101_2016_08_28.tar.gz

下载后解压,存入data/pretrained_weights/文件夹下面

2.编译cython
cd $PATH_ROOT/libs/box_utils/cython_utils
python setup.py build_ext --inplace

3.修改配置
如若训练VOC数据集不需要此步骤

若训练自己的数据集,需进行一下步骤:

修改/libs/configs/cfgs.py文件

第65行,CLASS_NUM设置为自己数据集中类别数目

注意:此类别数目是不算背景(background)的数量

第57行,MAX_ITERATION为迭代次数,可自行变动

第8行, NET_NAME 改变主干网络

第15行,GPU_GROUP = "0"改变gpu

注意:68行的BATCH_SIZE不能改变,只能为1

 

修改/libs/label_name_dict/label_dict.py文件

因为我自己的数据集按照VOC格式标注的,

因此修改第41行:

#添加类别名,第一个'back_ground':0不变,
#下面的改成自己数据集的类别名,序号按顺序即可
elif cfgs.DATASET_NAME == 'pascal':
    NAME_LABEL_MAP = {
        'back_ground': 0,
        'Human': 1,
        'occlusion': 2,
    }
 

修改data/io/convert_data_to_tfrecord.py文件

由于每个人生成xml文件时,xmin,ymin,xmax,ymax的写入顺序不同,此处不修改可能会引起数据集标签位置信息读取错误,

导致之后的产生标签对anchors偏移量时发生np.log() runtime超时问题

因此第55行开始,修改为

        if child_of_root.tag == 'object':
            label = None
            for child_item in child_of_root:
                if child_item.tag == 'name':
                    label = NAME_LABEL_MAP[child_item.text]
                if child_item.tag == 'bndbox':
                    tmp_box = [None]*5
                    for node in child_item:
                        #tmp_box.append(int(node.text))
                        if node.tag == "xmin":
                            tmp_box[0] = int(node.text)
                        if node.tag == "ymin":
                            tmp_box[1] = int(node.text)
                        if node.tag == "xmax":
                            tmp_box[2] = int(node.text)
                        if node.tag == "ymax":
                            tmp_box[3] = int(node.text)
                    assert label is not None, 'label is none, error'
                    #tmp_box.append(label)
                    tmp_box[4] = label
                    if tmp_box[2] -tmp_box[0] <= 0:
                        print(xml_path)
                    if tmp_box[3] -tmp_box[1] <= 0:
                        print(xml_path)
                    box_list.append(tmp_box)


4.生成数据集缓存文件
依次输入命令

cd /data/io/  
python convert_data_to_tfrecord.py --VOC_dir='/PATH/TO/VOCdevkit/VOCdevkit_train/'  --xml_dir='train' --image_dir='JPEGImages' --save_name='train'  --img_format='.jpg'  --dataset='pascal'

上述命令需要把--VOC_dir='设置为自己数据集的存储路径',其余根据自己数据存储格式变化

--xml_dir是训练集xml标签文件存储的文件名,这点要注意,需要把训练集和测试集的标签分开存储

--image_dir是图片文件存储的文件名

注:提取测试集标签文件和测试图像的方法如下:

https://blog.csdn.net/qq_35153620/article/details/94739728

5.训练
进入tools文件夹下面,输入命令:

python train.py

6.测试
进入tools文件夹下面

python eval.py --eval_imgs='/PATH/TO/IMAGES/' --annotation_dir='/PATH/TO/TEST/ANNOTATION/' --GPU='0'

--eval_imgs是测试集图片存储位置

--annotation_dir是测试集标签存储位置

改变output/trained_weights/文件夹下的checkpoint文件中的信息,选择测试时使用第几次迭代保存的权重

注:提取测试集标签文件和测试图像的方法如下:

https://blog.csdn.net/qq_35153620/article/details/94739728
 

# 工程内容 这个程序是基于tensorflow的tflearn库实现部分RCNN功能。 # 开发环境 windows10 + python3.5 + tensorflow1.2 + tflearn + cv2 + scikit-learn # 数据集 采用17flowers据集, 官网下载:http://www.robots.ox.ac.uk/~vgg/data/flowers/17/ # 程序说明 1、setup.py---初始化路径 2、config.py---配置 3、tools.py---进度条和显示带框图像工具 4、train_alexnet.py---大数据集预训练Alexnet网络,140个epoch左右,bitch_size为64 5、preprocessing_RCNN.py---图像的处理(选择性搜索、数据存取等) 6、selectivesearch.py---选择性搜索源码 7、fine_tune_RCNN.py---小数据集微调Alexnet 8、RCNN_output.py---训练SVM并测试RCNN测试的时候测试图片选择第7、16类中没有参与训练的,单朵的花效果好,因为训练用的都是单朵的) # 文件说明 1、train_list.txt---预训练数据,数据在17flowers文件夹中 2、fine_tune_list.txt---微调数据2flowers文件夹中 3、1.png---直接用选择性搜索的区域划分 4、2.png---通过RCNN后的区域划分 # 程序问题 1、由于数据集小的原因,在微调时候并没有像论文一样按一个bitch32个正样本,128个负样本输入,感觉正样本过少; 2、还没有懂最后是怎么给区域打分的,所有非极大值抑制集合canny算子没有进行,待续; 3、对选择的区域是直接进行缩放的; 4、由于数据集合论文采用不一样,但是微调和训练SVM时采用的IOU阈值一样,有待调参。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值