bounding box regression讲解

简介

  • bbox回归指的是使用变换的方法,将当前预测的bbox进行变换,使其更加接近gt box。
  • 对于一般的bbox,可以由 x,y,w,h x , y , w , h 4个变量进行表示,将我们的目标抽象为给定原始的proposal P P ,将groundtruth box记为G,我们希望能够找到一个变换关系,使得原始框可以映射得到一个更接近gt box的回归窗口 G^ G ^

具体做法

  • 首先进行平移,之后再进行缩放,具体公式如下

G^x=Pwdx(P)+PxG^y=Phdy(P)+PyG^w=Pwedw(P)G^h=Phedh(P) G ^ x = P w d x ( P ) + P x G ^ y = P h d y ( P ) + P y G ^ w = P w e d w ( P ) G ^ h = P h e d h ( P )

在这里, (G^x,G^y,G^h,G^h(Gx,Gy,Gh,Gh) ( G ^ x , G ^ y , G ^ h , G ^ h ≈ ( G x , G y , G h , G h )

  • 注意:上面w和h使用指数方式进行变换,是为了防止长度和宽度出现负值的情况。

    • 针对以上变换方法,在IOU较大的情况下, 可以将这种变换关系假设为线性变换,可以得到以下平移变换和尺度缩放的参数的计算公式

tx=(GxPx)/Pwty=(GyPy)/Phtw=log(GwPw)th=log(GhPh) t x = ( G x − P x ) / P w t y = ( G y − P y ) / P h t w = log ⁡ ( G w P w ) t h = log ⁡ ( G h P h )

函数可以表示为 d(P)=wTϕ5(P) d ∗ ( P ) = w ∗ T ϕ 5 ( P ) ϕ5(P) ϕ 5 ( P ) 是当前proposal的特征向量, w w ∗ 是要学习的参数,因此loss可以表示为

L=i=1N(tiwTϕ5P(i))2 L = ∑ i = 1 N ( t ∗ i − w ∗ T ϕ 5 P ( i ) ) 2

也可以加上L1 loss或者L2 loss,防止过拟合,可以使用最小二乘法进行求解。

参考链接

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Siou Loss是一种用于边界框回归的损失函数,它比传统的平方损失函数更强大。 边界框回归是目标检测任务中的重要组成部分,它的目标是预测图像中物体的位置和大小。传统的平方损失函数在边界框回归中常被使用,但它在处理物体尺寸变化和不均衡数据上存在一些问题。而Siou Loss通过解决这些问题,提供了更强大的学习能力。 Siou Loss通过引入IoU(Intersection over Union)来度量预测边界框和真实边界框之间的相似度。IoU是指预测边界框和真实边界框的交集区域与并集区域的比值,它能更好地描述边界框的匹配度。 Siou Loss不仅考虑了预测边界框和真实边界框之间的位置差异,还考虑了它们之间的尺度差异。这使得Siou Loss在处理物体尺寸变化时更加灵活,能够更好地适应不同尺寸的物体。 此外,Siou Loss还能够解决数据不均衡的问题。在目标检测任务中,负样本(非物体区域)通常远远多于正样本(物体区域),这导致传统的平方损失函数在训练过程中很难平衡正负样本之间的关系。而Siou Loss通过IoU作为权重,可以有效地平衡正负样本之间的重要性,提高了模型对于正样本的关注程度。 综上所述,Siou Loss作为一种更为强大的学习方法,在边界框回归任务中具有优势。它通过引入IoU来度量相似度,并解决了尺度变化和数据不均衡的问题,提高了模型的学习能力和预测准确性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

littletomatodonkey

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值