faster rcnn中为什么w,h回归的时候要取log

看到面经上有这个问题,思考了一下,我觉得答案有两个:

1. 我们知道,RPN在计算位置回归loss的时候其实是计算①预测框与anchor的偏移t 与 ②真值框与anchor的偏移t* 这二者的偏差,而不是直接求预测框和真值之间的偏差。t-t*趋近0时,预测框就趋近于真值框。

以w为例,

那么,

于是,log操作就将anchor参数消除了

 

2. Bound Box Regression可以看做是对预测框和真值框做线性变换进行位置精调,那么

为什么 可以看做是线性的呢?

这是因为

所以,只有当w*和w趋近时,才能视为线性变换。所以要求IoU大于0.7.

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值