【修改anchor】目标检测框架py-faster-rcnn修改anchor_box

转载 https://www.baidu.com/link?url=SAKuraONHiTiAvhvLo9Y4cyKwaGs6tmh6CYnpkGLf4otTOUcAgDh8LpA9YW5dcnzTUUIj40GRKXW2dQIlYkpjq&wd=&eqid=ac17b8bc000122dd000000035a30e220


众所周知,anchor_box控制了回归框的大小,我们有时候检测的是大物体或小物体时,需要调整回归框的大小的时候,得改一下anchor_box。
基于rgb公开的py-faster-rcnn修改anchor_box的步骤有一下几步:
1、修改py-faster-rcnn-my/lib/rpn下的三个文件:
1)generate_anchors.py。将以下两行修改成你想要的模样,然后执行这个文件,记下
执行后得到的结果的len。记anchor_box的个数。默认设置得到的是9个。因为是3个scale,3个ratios,从而得到的anchor_box的尺寸一共9种。
#def generate_anchors(base_size=6, ratios=[0.5, 1, 2],
#                     scales=2**np.arange(3, 6)):

2)修改anchor_target_layer.py中的这一行:
anchor_scales = layer_params.get(‘scales‘, (8, 16, 32))
这个(8,16,32)是根据1)中scales生成的,2**np.arange(3, 6)即2的3 4 5次方,
3)修改proposal_layer.py中的这一行:
anchor_scales = layer_params.get(‘scales‘, (8, 16, 32))
这个与2)类似。

2、修改train.prototxt和test.prototxt。这两个文件的修改方法类似,我们就写其中一个:

layer {
  name: "rpn_cls_score"
  type: "Convolution"
  bottom: "rpn/output"
  top: "rpn_cls_score"
  param { lr_mult: 1.0 }
  param { lr_mult: 2.0 }
  convolution_param {
    #num_output: 18   # 2(bg/fg) * 9(anchors)
#根据你的anchor_box的个数修改。如果你第一步得到的尺寸是8个,那么这里就是16
    kernel_size: 1 pad: 0 stride: 1
    weight_filler { type: "gaussian" std: 0.01 }
    bias_filler { type: "constant" value: 0 }
  }
}

layer {
  name: "rpn_bbox_pred"
  type: "Convolution"
  bottom: "rpn/output"
  top: "rpn_bbox_pred"
  param { lr_mult: 1.0 }
  param { lr_mult: 2.0 }
  convolution_param {
    #num_output: 36   # 4 * 9(anchors)
#同上,修改为anchors的尺寸个数的4倍。
    kernel_size: 1 pad: 0 stride: 1
    weight_filler { type: "gaussian" std: 0.01 }
    bias_filler { type: "constant" value: 0 }
  }
}
layer {
  name: ‘rpn_cls_prob_reshape‘
  type: ‘Reshape‘
  bottom: ‘rpn_cls_prob‘
  top: ‘rpn_cls_prob_reshape‘
  #reshape_param { shape { dim: 0 dim: 18 dim: -1 dim: 0 } }
#修改dim的第二个为 2×anchor_box的个数
 
}

修改好后,开训,应该不会报错。记得要清楚上次训练是保存的一些cache。
如果报错了,请留言与我联系。

这个只是一些比较机械化的总结,希望大家通过这个为切入点,不断捋熟源码。才能随心所欲的实现自己的算法。

目标检测框架py-faster-rcnn修改anchor_box

标签:算法   框架   ams   const   fas   nbsp   这一   res   weight   

原文:http://www.cnblogs.com/whu-zeng/p/7517480.html


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
# 工程内容 这个程序是基于tensorflow的tflearn库实现部分RCNN功能。 # 开发环境 windows10 + python3.5 + tensorflow1.2 + tflearn + cv2 + scikit-learn # 数据集 采用17flowers据集, 官网下载:http://www.robots.ox.ac.uk/~vgg/data/flowers/17/ # 程序说明 1、setup.py---初始化路径 2、config.py---配置 3、tools.py---进度条和显示带图像工具 4、train_alexnet.py---大数据集预训练Alexnet网络,140个epoch左右,bitch_size为64 5、preprocessing_RCNN.py---图像的处理(选择性搜索、数据存取等) 6、selectivesearch.py---选择性搜索源码 7、fine_tune_RCNN.py---小数据集微调Alexnet 8、RCNN_output.py---训练SVM并测试RCNN(测试的时候测试图片选择第7、16类中没有参与训练的,单朵的花效果好,因为训练用的都是单朵的) # 文件说明 1、train_list.txt---预训练数据,数据在17flowers文件夹中 2、fine_tune_list.txt---微调数据2flowers文件夹中 3、1.png---直接用选择性搜索的区域划分 4、2.png---通过RCNN后的区域划分 # 程序问题 1、由于数据集小的原因,在微调时候并没有像论文一样按一个bitch32个正样本,128个负样本输入,感觉正样本过少; 2、还没有懂最后是怎么给区域打分的,所有非极大值抑制集合canny算子没有进行,待续; 3、对选择的区域是直接进行缩放的; 4、由于数据集合论文采用不一样,但是微调和训练SVM时采用的IOU阈值一样,有待调参。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值