pytorch中的膨胀卷积

一、膨胀卷积

Dilated Convolutions,翻译为扩张卷积或空洞卷积。扩张卷积与普通的卷积相比,除了卷积核的大小以外,还有一个扩张率(dilation rate)参数,主要用来表示扩张的大小。扩张卷积与普通卷积的相同点在于卷积核的大小是一样的,在神经网络中即参数数量不变,区别在于扩张卷积具有更大的感受野。感受野是卷积核在图像上看到的大小,例如5x5的卷积核的感受野大小为25。

二、膨胀卷积与普通卷积的区别

(一)、普通卷积

在这里插入图片描述

(二)、膨胀卷积

在这里插入图片描述

二、膨胀卷积的优点及其参数推导

膨胀卷积在保持参数个数不变的情况下增大了卷积核的感受野
(一)、普通卷积,dilation=1,感受野为3x3=9

(二)、膨胀卷积,dilation=2,感受野为5x5=25

(三)、膨胀卷积,dilation=4,感受野为9x9 = 81

3、感受野的概念

在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小

卷积核经过膨胀后实际参与运算的卷积大小计算公式:

膨胀后的卷积核尺寸 = 膨胀系数 × (原始卷积核尺寸-1)+ 1或原始卷积核尺寸×(原始卷积核尺寸-1)×(膨胀系数-1)。

例如对于输入是19 x 19大小的图像做膨胀卷积,要使输出的图像大小保持不变,即就是仍然为19 x 19。按照tensorflow的方法:
Output=(W-F+2P)/S+1

取strides=1,这里的原始卷积核为3 x 3大小,dilation=6,可以计算出膨胀后的卷积核大小为6(3-1)+1=13。
带入公式(19-13+2*p)/1+1=19,要使这个式子成立,可以反推出padding=6。

三、膨胀卷积的缺点

由于空洞卷积的卷积核不连续,不是所有的信息参与了计算,导致信息连续性的损失,引起栅格效应。
对于识别大物体有利,对于小物体有待于改进。下面为膨胀卷积的效果
在这里插入图片描述

  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值