SSD学习笔记

论文部分

  • default box部分:

对特征图的每一个网格生成k个default box,记待检测种类c,每个default box有4个调整参数。所以对规模为m*n的特征图生成(c+4)kmn个参数。

  • 正样本选取:

1,对每一个GT box,都去匹配和他的iou最大的default box作为正样本

2,对每一个default box,只要和任一个GT的iou大于0.5,也认为是正样本

  • 损失函数:

总损失函数是分类损失conf和定位损失loc的加权平均值,其中α是超参数,作者建议为1

定位损失用的是Smooth L1函数,对预测框和真实框的4个参数分别计算损失。4个参数是中心点的二位左边以及宽高,如下式所示:

分类损失用的则是softmax函数,包括正样本和负样本的:

  • default box大小的设置:

作者讲的很详细,但是看了很多的源码都不是按照作者的思路实现的

  • hard negative mining:

当完成正样本匹配之后,剩余的default box会被归为负样本。尤其是当default box的数量越多,负样本的数量也就会越多,这会导致正负样本不平衡。我们对每一个负样本计算confidence loss,值最大的负样本在训练过程中被认为是目标的可能性就越大,所以我们把这样的用作负样本。把正负样本比率设为1:3

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值