(一)图像目标检测论文:SSD方法解析

论文传送门:SSD: Single Shot MultiBox Detector

1 SSD原理

SSD方法使用单深度神经网络进行目标检测,该方法将输出框离散为一组默认的框,这些框在每个特征映射位置具有不同的比率和比例值。预测时,网络为默认框中的每个目标区域进行打分,并生成与目标尺寸较好匹配的标注框。网络使用多个特征图和不同分辨率进行联合预测,处理各种大小的目标。因为完全消除了方案生成和后续的像素或特征重采样阶段,并将所有计算封装在一个网络中,所以SSD是相对简单的方法,该方法需要使用目标推荐(Object Proposal),这也使得SSD更加易于训练,并且可以直接集成到需要的检测系统中。

2 内容

2.1 简介

SSD训练时,只需要输入一张图片和图片中目标的标注框(准确的)。用卷积的方式,在多个不同尺寸特征图中,评估不同尺寸的默认标注框。利用默认标注框,预测所有目标区域的形状偏移和置信度,训练过程中,首先匹配默认框和标注框。例如图1所示,匹配到两个默认框,一个是猫的默认框,一个是狗的默认框,将这两个默认框是有效信息,其他部分是无效信息。模型损失是定位损失(如平滑度L1)和置信度损失(如Softmax)权重之和。
在这里插入图片描述

图2.1 SSD框架

2.2 模型

SSD方法基于反馈卷进神经网络,为在这些框中的目标,生成固定大小的边界框集合和评估分数,随后,由非最大压缩步骤生成最终检测结果。我们使用的基本网络是基于高清图片分类的标准神经网络结构前面部分(全连接层前的部分),如图1.2所示,然后在网络中添加辅助结构生成以下特征的检测:
在这里插入图片描述

图2.2 SSD网络结构

多尺寸特征映射的检测:
在裁剪的基础神经网络后面添加卷积特征层,这些特征层减少了处理的尺寸并且可以在多尺寸下进行检测预测,卷积模型对每个特征层的检测预测都是不同的(Overfeat和YOLO都是在单一尺寸的特征映射进行处理)。

  • 卷积预测的检测:
    增加的每个特征层(或基于原网络的特征层)可使用一组卷积核生成一组固定大小的预测检测器。对于p个通道的m × \times ×n尺寸的特征层,预测参数检测器的基本元素是 3 × 3 × p 3\times 3 \times p 3×3×p的卷积核,由卷积计算生成对目标的打分或相对默认框坐标的偏移坐标。在 m × n m\times n m×n的特征映射上使用卷积核,生成输出值,边界框的偏移输出值根据默认框位置和特征映射区域的相对位置测量,(这一过程,YOLO的结构是使用内置的全连接层而不是卷积核,如图1.3所示)。
    在这里插入图片描述
图2.3 YoLo网络结构
  • 默认框和纵横比:
    对于在神经网络上层的多特征映射将默认边界框和每个特征图进行结合,默认框以卷积方式对应到特征图,这样每个框相对于各自卷积区域的的位置即可固定下来。在每个特征图的栅格中,预测默认框相对偏移量和在这些框中每个类别的分数。具体是,在给定位置的k个框中,计算c( c 1 , c 2 , . . . , c p c_1,c_2,...,c_p c1,c2,...,cp)个分类的分数和相对原始默认框的4个偏移量(cx,cy,w,h)。该方法,在特征图的每个位置的卷积核为(c+4)k,对于m × \times ×n的特征图,共有(c+4)kmn个输出。

2.3 训练

训练SSD和传统使用区域推荐的检测器最大的不同是在正确数据的信息需要分配给固定检测器输出集的特定输出。在YOLO、Faster R-CNN和多标注框的训练中也会使用上述步骤的部分,一旦确定了这些任务,损失函数和反向传播即被应用到端到端。训练过程也包括选择默认框,检测器尺寸,反差挖掘和数据扩充策略。

  • 比对策略:
    训练过程中需要确定默认框对应的标注框,训练对应的神经网络。从不同位置,纵横比和尺寸的默认框中选择正确的标注框。首先将每个正确的标注框与具有最佳jaccard重叠的默认框进行匹配(类似于多目标框),与多目标框不同的是,之后将默认框和正确标注框jaccard重叠高于阈值(0.5)进行匹配。这样简化了学习问题,使得神经网络对多重叠的默认框进行高分预测,而不是只选取重叠的最大值。
  • 训练目标:
    SSD训练目标来自多盒目标,但是拆分为多目标分类,这样可用i(目标框),j(真实标注框),p种类进行预测,形如 x i j p x^p_{ij} xijp={1,0}。以上的比对策略,有 ∑ i x i j p > = 1 \sum_ix^p_{ij}>=1 ixijp>=1全部目标的损失函数是位置损失值和置信损失值的权重之和:

L ( x , c , l , g ) = 1 N ( L c o n f ( x , c ) + α L l o c ( x , l , g ) ) L(x, c, l, g)=\frac{1}{N}(L_{conf}(x,c)+\alpha L_{loc}(x, l, g)) L(x,c,l,g)=N1(Lconf(x,c)+αLloc(x,l,g))

N为默认框比对的序号,若N=0,则损失为0。位置损失为Smooth L1损失,介于预测框( l l l)和真实标注框( g g g)之间。和Faster R-CNN相似的是对默认边界框(d)和框的宽度(w)及高度(h)的中心进行偏置回归。
L l o c ( x , l , g ) = ∑ i ∈ P o s m ∈ c x , c y , w , h N x i j k s m o o t h L 1 ( l i m − g ^ j m ) L_{loc}(x, l, g)=\sum^N_{i\in Pos m\in {cx, cy, w, h}}x^k_{ij}smooth_{L1}(l^m_i - \hat{g}^m_j) Lloc(x,l,g)=iPosmcx,cy,w,hNxijksmoothL1(limg^jm)
g ^ j c x = ( g j c x − d i c x ) / d i w \hat{g}^{cx}_j=(g^{cx}_j-d^{cx}_i)/d^w_i g^jcx=(gjcxdicx)/diw g ^ j c y = ( g j c y − d i c y ) / d i h \hat{g}^{cy}_j=(g^{cy}_j-d^{cy}_i)/d^h_i g^jcy=(gjcydicy)/dih
g ^ j w = l o g ( g j w d i w ) \hat{g}^w_j=log(\frac{g^w_j}{d^w_i}) g^jw=log(diwgjw) g ^ j w = l o g ( g j h d i h ) \hat{g}^w_j=log(\frac{g^h_j}{d^h_i}) g^jw=log(dihgjh)
置信度损失是多分类置信度的softmax损失:
L c o n f ( x , c ) = − ∑ i ∈ P o s N x i j p l o g ( c ^ i p ) − ∑ i ∈ N e g l o g ( c ^ i 0 ) L_{conf}(x, c)=-\sum^N_{i\in Pos}x^p_{ij}log(\hat{c}^p_i)-\sum_{i\in N eg}log(\hat{c}^0_i) Lconf(x,c)=iPosNxijplog(c^ip)iNeglog(c^i0)
其中, c ^ i p = e x p ( c i p ) ∑ p e x p ( c i p ) \hat{c}^p_i=\frac{exp(c^p_i)}{\sum_pexp(c^p_i)} c^ip=pexp(cip)exp(cip),通过交叉验证将权重 α \alpha α设为1。

  • 默认框尺寸和纵横比的选择
    对不同尺寸的目标处理,文献建议的方法是对不同的目标进行处理然后融合处理后的结果。然而,单神经网络利用来自不同网络的特征图进行与预测可以获得同样的效果,并且可以对所有目标进行权值共享。之前的工作表明使用底层网络的特征图可以提高语义分割的质量,由于底层网络可获取输入目标的更多细节。同时,从特征图中增加全局内容的池化有助于平滑分割结果。基于这些方法,我们采用底层和顶层的特征图进行检测。
    神经网络不同层次的特征图需要有已知的不同的接受尺寸,幸运的是,SSD框架的默认框不需要对应每层实际可接受的尺寸。通过设计平移默认框可以使特定的特征图学习对应尺寸的目标。假设使用m个特征图进行预测,每个特征图的默认框尺寸计算如下:
    s k = s m i n + s m a x − s m i n m − 1 ( k − 1 ) , k ∈ [ 1 , m ] s_k=s_{min}+\frac{s_{max}-s_{min}}{m-1}(k-1),k\in [1, m] sk=smin+m1smaxsmin(k1),k[1,m]
    s m i n = 0.2 , s m a x = 0.9 s_{min}=0.2, s_{max}=0.9 smin=0.2,smax=0.9意味着最底层的比例为0.2,最顶层的比例为0.9,所有层的值在0.2和0.9之间。为默认框设定不同的长宽比,用 a r ∈ 1 , 2 , 3 , 1 2 , 1 3 a_r\in {1, 2, 3, \frac {1}{2}, \frac{1}{3}} ar1,2,3,21,31表示,计算每个默认框的宽( w k a = s k a r w^a_k=s_k\sqrt a_r wka=ska r)和高( h k a = s k / a r h^a_k=s_k/\sqrt {a_r} hka=sk/ar ),长宽比为1的正方形方框,添加的默认框长宽比为 s k ′ = s k s k + 1 s^{'}_k=\sqrt{s_ks_{k+1}} sk=sksk+1 ,每个特征图区域有6个默认框。设定每个默认框的的中心为( i + 0.5 ∣ f k ∣ , j + 0.5 ∣ f k ∣ \frac{i+0.5}{|f_k|},\frac{j+0.5}{|f_k|} fki+0.5,fkj+0.5),其中 f k f_k fk是第 k k k个区域特征图的的尺寸, i , j ∈ [ 0 , ∣ f k ∣ ) i,j\in[0,|f_k|) i,j[0,fk),实际上,也可以设计默认框的分布,更好地适用特定的数据集。
    将多个特征图的所有区域中不同的尺寸和长宽比的的默认框的预测结合起来,我们有一套不同的预测方法,即覆盖各种输入目标的尺寸和形状。如图1,dog匹配的默认框在 4 × 4 4\times4 4×4的特征图中,不是在 8 × 8 8\times8 8×8特征图中。因为这些默认框有不同的比例,与dog不匹配,所以训练时认为是消极的。
  • 强反差提取
    匹配步骤之后,大部分的默认框是底片色,尤其可能的默认框很大时,这也就导致了正片和负片示例间的显著不平衡,我们对每个默认框使用最高置信度损失进行分类并提取最高的,而不是全部都使用负片,因此负片和正片的大部分是3:1,实验发现这种方法可提高优化速度并使训练更加稳定。
  • 数据扩充
    为使模型在不同的输入尺寸和形状对象上表现的更加健壮,每批训练图像依据下面进随机抽样:全部原生图像中,使用随机采样补丁,使最小的jaccard和对象的重叠区域为0.1,0.3,0.5或0.9。
    原图的采样补丁尺寸为[0.1, 1],不同的长宽比在 1 2 \frac{1}{2} 21 2 2 2之间,如果标注的真实值在中心采样区中,保留重叠部分。采样之后,每个采样补丁会调整到固定尺寸,并以0.5的概率水平翻转,此外,还会应用类似文章14描述照片度量畸变。

2.4 实验结果

基本网络:我们的实验基于VGG16预训练的ILSVRC CLS-LOC数据集,类似于DeepLab-LargeFOV,将fc6和fc7转换为卷积层,从fc6和fc7机型上采样参数,将pool5的 2 × 2 − s 2 2\times2-s2 2×2s2调成 3 × 3 − s 1 3\times3-s1 3×3s1,同时使用 a ˋ t r o u s à trous aˋtrous算法填充“hole”。将所有dropout层和fc8层移除,使用SGD优化,初始化学习率 1 0 − 3 10^{-3} 103,动量0.9,0.0005的权重衰减,和32张图片的batch进行fine-tuning模型结果,每个数据集的学习率衰减策略略微不同,在后面会有更多细节。模型训练和测试基于Caffe,传送门:https://github.com/weiliu89/caffe/tree/ssd

  • PASCAL VOC2007数据集
    在这里插入图片描述
图2.4 SSD与其他方法在VOC2007数据集预测结果比对
  • PASCAL VOC2012数据集
    在这里插入图片描述
图2.5 SSD与其他方法在VOC2012数据集预测结果比对
  • COCO数据集
    在这里插入图片描述
图2.6 SSD与其他方法在COCO数据集预测结果比对

3 总结

SSD方法是对多类别的目标检测的快速识别方法。模型的关键特征是使用多尺寸卷积标注框输出连接到网络顶部的多个特征图,如图2.2所示,这样就可以更有效地对可能的框尺寸进行建模。SSD模型在多目标级别中采样位置,尺寸和纵横比优于现有方法,如Faster R-CNN, YOLO。有望未来在目标检测中该模型作为其中定位和分类的一部分,结合循环神经网络同时检测和跟踪视频中的目标。


[参考文献]
[1]SSD: Single Shot MultiBox Detector


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值