论文阅读笔记——Attention UNet

本文是关于Attention UNet的论文阅读笔记。Attention机制通过结合上下文信息,使得模型能聚焦于目标区域,通过训练调整注意力系数,增强目标区域的特征,抑制无关区域,从而提升模型的表现。在Attention UNet中,经过处理的特征图与上采样的g相加,通过ReLU和sigmoid得到注意力系数,再与原始特征图相乘,达到注意力聚焦的效果。
摘要由CSDN通过智能技术生成

 参考:https://blog.csdn.net/rosefun96/article/details/88868527

 Attention coefficients(取值0~1)与feature map相乘,会让不相关的区域的值变小(抑制),target区域的值变大(Attention)。

Attention的意思是,把注意力放到目标区域上,简单来说就是让目标区域的值变大。

看下面这张图,xl本来是要直接通过跳跃连接和g上采样的结果进行concat,这里先对xl和g转成一样的size,然后相加,relu, sigmoid得到attention coefficients。

为什么这样就能让注意力放到target区域呢?

文中提到要结合上下文的信息,其实上代表xl,g代表下,因为g学到的东西更多,信息更准确。为什么要加g呢?加g是很重要的,没有g就没有办法实现注意力系数的训练更新。我是这么理解的:g里面的信息,就是注意力该学习的方向。可以这么想,如果直接将g上采样一次得到g',g'和xl的size一样。那么同样是target的区域的像素值,g'里的像素值会比xl里的像素值大,

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值