Semantic Segmentation

Atrous convolution ,就是带洞的卷积,卷积核是稀疏的
下 图(b)是带洞卷积,可以跳着选,隔一个加一个。 1433065-20190126212014493-303008288.png

The First ColumnThe Second Column
Dilated Convolutions翻译为扩张卷积或空洞卷积
atrous convolution
带洞卷积
1433065-20190126223739028-1211606699.gif
standard convolution1433065-20190126223649742-1711572108.gif
upsampling将变小的图像恢复到原始大小
dilated convolution
带洞卷积减少了核的大小,
可以达到节省内存的作用。
而且带洞卷积的有效性基于一个假设:
紧密相邻的像素几乎相同,全部纳入属于冗余,
不如跳H(hole size)个取一个。
1433065-20190126224404677-1053222196.png
DenseNet
Dense Block模块,其中层数为5,
即具有5个BN+Relu+Conv(3*3)这样的layer,
网络增长率为4,简单的说就是每一个layer输出的
feature map的维度为4。
1433065-20190126222916028-854010082.png
DenseNet-BC的网络结构参数
其中网络增长率K=32,
conv 代表BN-ReLU-Conv
1433065-20190126223250051-612518786.png
DenseNet在ImageNet上
DenseNet-BC和ResNet对比
1433065-20190126224212074-632658422.png
在空洞卷积中有个重要的参数叫rate,
这个参数代表了空洞的大小。
1433065-20190126225816044-1212109461.png
当rate =1,
可以把红色的点想象成在原图上
的采样点就是原图不丢失任何信息采样
如图(a)
1433065-20190126225816044-1212109461.png
当rate=2,
可以把红色的点想象成在原图上
的采样点就是在原图上每隔一(rate-1)个像素采样,
如图b,
然后将采样后的图像与kernel做卷积,
这样做其实变相增大了感受野。
1433065-20190126225816044-1212109461.png
当rate=4,
可以把红色的点想象成在原图上
的采样点
如图(C)
1433065-20190126225816044-1212109461.png
DeepLab V3
第一种延伸架构Going Deeper(Cascaded Module)
1433065-20190126231449052-61253114.png
Output Stride=16表示原本图片是feature map的16倍大
复制Resnet中最后一个Convolution Block
(Block 4),
并连续接在后端(图中的Block 5 + 6 + 7),
以取得更多multi -scale cascade context。
这里为了维持相同的feature map大小
在后面的block上所使用的
Atrous Rate需要以指数成长。
1433065-20190126231708678-1885863341.png
DeepLab V3
第二种延伸架构ASPP(Parallel Module)
1433065-20190126231750598-1656679472.png
DeepLab V3
第二种延伸架构ASPP(Parallel Module)
在最后的feature map上,
接上平行的Convolution Block,
每一个Block取用不同rate的Atrous Convolution,
最后将所有的资讯合并起来再做预测。
ASPP在原本的DeepLab就已经被提出了,
但是这边作者另外在ASPP后
接上了Batch Normalization,
另外加入了
前面Image Feature Map一起合并
做Global Average Pooling ,
实验也证明这样的小技巧是有效的
1433065-20190126231750598-1656679472.png
upsample意思为上采样,
简单来说就是pooling的逆过程,
所以pooling也就是下采样,
采样后数据数量减少
1433065-20190127000720036-808054171.png
下面解释FCN中是如何
实现upsample,FCN作者分为
FCN-32s,FCN-16s,FCN-8s三种
1433065-20190127001657127-335644799.png
image是原图像,
conv1,conv2..,conv5为卷积操作,
pool1,pool2,..pool5为pool操作
(pool就是使得图片变为原图的1/2),
注意con6-7是最后的卷积层,
最右边一列是upsample后
的end to end结果。
必须说明的是图中nx是指对应的
特征图上采样n倍(即变大n倍),
并不是指有n个特征图,
如32x upsampled 中的32x
是图像只变大32倍,
不是有32个上采样图像,
又如2x conv7是
指conv7的特征图变大2倍。
1433065-20190127001824510-964778294.png

转载于:https://www.cnblogs.com/hugeng007/p/10325013.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值