OHEM,Batch Hard(识别乱入),Focal Loss

本文深入探讨了Faster R-CNN的改进方法,包括Online Hard Example Mining (OHEM)和Focal Loss。OHEM旨在消除正负样本比例的超参数,通过选择最难的样本进行训练。Focal Loss则是针对密集目标检测中的easy example主导问题,作为对OHEM的一种改进。Batch Hard策略在样本挖掘中寻找中等难度的样本,以提高训练效果。
摘要由CSDN通过智能技术生成

一些别人总结的Faster R-CNN后续改进:
[目标检测] Faster R-CNN 深入理解 && 改进方法汇总

Faster R-CNN改进篇(一): ION ● HyperNet ● MS CNN

Training Region-based Object Detectors with Online Hard Example Mining

最好先阅读之前博文: Tensorflow object detection API 源码阅读笔记:RPN

  • 知乎文章中ProposalTargetCreator从2000/300候选中选择一部分(比如128个)pooling出来用以训练Fast
    R-CNN,对应: 不使用hard_example_miner
    _unpad_proposals_and_sample_box_classifier_batch second_stage_batch_size=64

这里的正负样本比例1:3很重要。OHEM就是为了消除掉这个超参数,做法和triplet loss文章中经常

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值