faster-rcnn
faster-rcnn loss主要分为两个部分RPN的loss和fast-rcnn部分的loss:
1.rpn loss
分为两个部分,其中cls就是BCE loss,而reg用的是smooth L1 loss
为什么使用这种loss,文章中的说法是对异常点更加鲁棒,x大于1之后,梯度都是常量了。这边要注意的就是,他并不是对(x,y,w,h)原值进行回归,(x,y)使用对应的b-box进行了normalize,(w,h)也是用b-box对应的参数相除之后求对数。我的理解是做归一化后,达到同一尺度,可以加快训练或者提升训练效果。