[深度学习从入门到女装]Attention U-Net: Learning Where to Look for the Pancreas

论文地址:Attention U-Net: Learning Where to Look for the Pancreas

 

这是一篇使用attention模块对U-Net进行改进,从而进行医学图像分割的论文

 

这个attention模块其实给我感觉特别像SENet里边对每个channel进行权重加权的模块,只不过这篇文章是对feature map中每个pixel进行加权,以达到突出显著特征的作用

 

改进后的U-Net如图所示

attention模块用在了skip connection上,原始U-Net只是单纯的把同层的下采样层的特征直接concate到上采样层中,改进后的使用attention模块对下采样层同层和上采样层上一层的特征图进行处理后再和上采样后的特征图进行concate

 

attention模块

F代表哪一层的channel数,通俗来看就是使用下采样层同层的特征图和上采样层上一层的特征图进行一个pixel权重图的构建,然后再把这个权重图对下采样层同层的特征图进行处理,得到进行权重加权的特征图

使用公式来表达就是:

 

下采样层同层的特征图g_{i}(F_{g}\times H_{g} \times W_{g} \times D_{g}),进行1*1*1卷积运算得到W_{g}^{T}g_{i}

上采样层上一层的特征图x_{i}^{l}(F_{l}\times H_{x} \times W_{x} \times D_{x}),进行1*1*1卷积运算得到W_{x}^{T}x_{i}^{l}

将上两步得到的特征图W_{g}^{T}g_{i}W_{x}^{T}x_{i}^{l}进行相加后在进行ReLu得到\sigma _{1}(W_{x}^{T}x_{i}^l+W_{g}^{T}g_{i}+b_{g})F_int\times H_{g}W_{g}D_{g}),\sigma _{1}为ReLU激活函数

随后在使用1*1*1卷积运算得到q_{att}^{l}=\psi ^{T}(\sigma _{1}(W_{x}^{T}x_{i}^l+W_{g}^{T}g_{i}+b_{g}))+b_{\psi}

最后对q_{att}^{l}进行sigmoid激活函数得到最终的attention coeffficients(\alpha _{i}^{l}

 

梯度传导过程如下:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值