对于什么是边框回归Bounding-Box regression这个问题可以牵扯出不少问题,比如为什么要边框回归?什么是边框回归?边框回归怎么做的?边框回归为什么宽高,坐标会设计这种形式?为什么边框回归只能微调,在离真实值Ground Truth近的时候才能生效?
为什么要边框回归
如图1所示,绿色的框表示真实值Ground Truth, 红色的框为Selective Search提取的候选区域/框Region Proposal。那么即便红色的框被分类器识别为飞机,但是由于红色的框定位不准(IoU<0.5), 这张图也相当于没有正确的检测出飞机。
如果我们能对红色的框进行微调fine-tuning,使得经过微调后的窗口跟Ground Truth 更接近, 这样岂不是定位会更准确。 而Bounding-box regression 就是用来微调这个窗口的。
什么是边框回归
对于窗口一般使用四维向量(x,y,w,h)(x,y,w,h) 来表示, 分别表示窗口的中心点坐标和宽高。 对于图2, 红色的框 P 代表原始的Proposal, 绿色的框 G 代表目标的 Ground Truth, 我们的目标是寻找一种关系使得输入原始的窗口 P 经过映射得到一个跟真实窗口 G 更接近的回归窗口
G
^
\hat{G}
G^。
所以,边框回归的目的即是:给定(Px,Py,Pw,Ph)寻找一种映射f, 使得f(Px,Py,Pw,Ph)=(
G
x
^
,
G
y
^
,
G
w
^
,
G
h
^
\hat{Gx},\hat{Gy},\hat{Gw},\hat{Gh}
Gx^,Gy^,Gw^,Gh^)并且(
G
x
^
,
G
y
^
,
G
w
^
,
G
h
^
\hat{Gx},\hat{Gy},\hat{Gw},\hat{Gh}
Gx^,Gy^,Gw^,Gh^)≈(Gx,Gy,Gw,Gh)
边框回归怎么做的
那么经过何种变换才能从图2中的窗口 P 变为窗口G^呢? 比较简单的思路就是: 平移+尺度放缩
观察(1)-(4)我们发现, 边框回归学习就是dx§,dy§,dw§,dh§这四个变换。下一步就是设计算法那得到这四个映射。
线性回归就是给定输入的特征向量 X, 学习一组参数 W, 使得经过线性回归后的值跟真实值 Y(Ground Truth)非常接近. 即Y≈WX。那么 Bounding-box 中我们的输入以及输出分别是什么呢?
Input:
RegionProposal→P=(Px,Py,Pw,Ph),这个是什么? 输入就是这四个数值吗?其实真正的输入是这个窗口对应的 CNN 特征,也就是 R-CNN 中的 Pool5 feature(特征向量)。 (注:训练阶段输入还包括 Ground Truth, 也就是下边提到的t∗=(tx,ty,tw,th)
Output:
需要进行的平移变换和尺度缩放 dx§,dy§,dw§,dh§,或者说是Δx,Δy,Sw,Sh。我们的最终输出不应该是 Ground Truth 吗? 是的, 但是有了这四个变换我们就可以直接得到 Ground Truth, 这里还有个问题, 根据(1)~(4)我们可以知道, P 经过 dx§,dy§,dw§,dh§ 得到的并不是真实值 G, 而是预测值G^ 。 的确, 这四个值应该是经过 Ground Truth 和 Proposal 计算得到的真正需要的平移量(tx,ty)(tx,ty) 和尺度缩放(tw,th)(tw,th) 。
这也就是 R-CNN 中的(6)~(9):
参考文章