距离截止日期还剩下一周,baseline还没有,但是已经找到问题所在。我把之前的VOC的prototxt换成coco的,然后使用class-aware的方式,训练。这样原先bbox输出的8个点,就变成了现在的804点,rfcn的8*7*7变为804*7*7,计算量无疑变大,训练速度自然也就变慢。由之前的1s2.5轮,变为现在1s1 轮。而batch是1,两块卡是2,也就是1s能够过两张图片,两个半小时能训10000轮,这样训了9w轮,我测了一下,mAP直接就是35.2,说明自己的想法是正确的,但是时间还2天。然后继续训到16w轮,升到39.9,此时降低rpn的loss_weight,由1变为0.5,学习率降为0.0001,又训练了几万轮,mAP到了44.3。之后又将rpn的loss_weight由0.5降为0.2,接着训到截止提交结果当天的四点左右,同时,师弟将之前低于0.2的类单独挑出来,使用我的模型finetune,最后,直接分四块卡跑test集,使用阈值为0.01过滤结果,我的模型和师弟单独训练那几类的模型融合,然后同去年的结果merge一起。分别提交了四个结果。
ImageNet2017 周记之第四周
最新推荐文章于 2021-12-22 16:28:10 发布