语义分割–FCN(1/3)–论文理解
论文下载:
下载连接:Fully Convolutional Networks for Semantic Segmentation
文章创新
1、将分类网络改编为全卷积神经网络。(a、全连接层转化为卷积层b、采用反卷积进行下采样)
2、使用迁移学习的方法进行微调。
3、使用跳跃连接结构使得语义信息可以和表征信息相结合,产生精确的分割。
论文精读
Abstract
重点突出:
1、建立“全卷积”网络,接受任意大小的输入,并通过有效的推理和学习产生相应大小的输出。
2、dense prediction tasks,实现像素级预测的效果。
3、定义了一个skip架构,它结合了来自深层的粗糙层的语义信息和来自浅层的精细层的外观信息,以产生准确和详细的分割。
Introduction&Related work
1、全局信息与局部信息
局部信息 | 全局信息 | |
---|---|---|
提取位置 | 浅层网络中提取局部信息 | 深层网络中提取全局信息 |
特点 | 物体的几何信息,比较丰富,对应的感受野小 | 物体的空间信息,比较丰富,对应的感受野较大 |
目的 | 有利于分割尺寸较小的目标,有利于提高分割的精确程度 | 有利于分割尺寸较大的目标,有利于提高分割的精确程度 |
随着下采样越来越多,局部信息被处理成为全局信息,需要用太跳跃连接保存。
2、在以往的分割方法中,主要有两大类的缺点。
a、基于图像块的分割虽然常见,但是效率低,且往往需要前期后者后期的处理。(比如:超像素,检测框,局部预处理…)
b、语义分割面临着语义和位置信息不可兼得的问题。(卷积大漏洞:论文平移不变性2/3会进行简单的解释)
3、本文的主要3个创新点,已论述。
Fully convolutional networks
1、感受域(Receptive field)
在卷积神经网络中,决定某一层输出结果中一个元素所对应的输入层的区域大小,称之为感受野。
通常来说,大感受野的效果要比小感受野的效果更好。
公式:
R
F
2
RF_2
RF2(感受野)=
R
L
1
RL_1
RL1+
(
k
e
r
n
e
l
(kernel
(kernel_
s
i
z
e
−
1
)
size-1)
size−1)*stride
有公式可知:stride越大,感受野越大。但是过大的stride会使feature map保留的信息变少。*故在减小stride情况下,如何增大感受野或者保持不变,是分割的一大问题
2、上采样(Upsmapling)
本文没有沿用以往的插值上采样(Interpolation),而是提出新的上采样的方法,即反卷积(Deconvolution)。
反卷积可以理解为卷积操作的逆运算,反卷积不能复原因卷积操作造成的值的损失,它仅仅是将卷积过程中的步骤反向变换一次,也称作转置卷积。
到此,主要内容已结束
参考:
致敬大佬1
CSDN样式参考:
happy1