【文献阅读】PSANet: Point-wise Spatial Attention Network for Scene Parsing

文献阅读

我认为这篇最大的亮点是从信息流的角度看待自注意力机制,但是网络设计有些牵强,解释有些生硬。
与non-local的主要区别:
1.有两个分支来学习关系;
2.参数是自适应的而非仅利用相似度。

仅从提高感受野的角度来看,与空洞卷积与全局池化的区别在于:
基于dilated-convolution和基于pooling扩展以一种非自适应的方式利用了所有图像区域的同构互依赖,忽略了不同区域的局部表示和不同种类上下文依赖的差异。


由于卷积滤波器的物理设计,卷积神经网络中的信息流被限制在局部邻域内,这限制了对复杂场景的整体理解。特征图上的每个位置都通过自适应学习的注意力模板与所有其他位置相连接。可以收集其他位置的信息来帮助预测当前位置,反之亦然,可以分布当前位置的信息来帮助预测其他位置。
特征图中的每个位置通过自适应预测注意力图与所有其他位置相连接,从而获取附近和远处的各种信息。

优势:

1.通过PSA模块学习到的掩模是自适应的
2.对位置和类别信息非常敏感

在这里插入图片描述
公式感觉很牵强,直接上结论:
在这里插入图片描述
在这里插入图片描述
PSA模块首先生成两个逐点的空间attention map,即Ac和Ad由两个平行的支路构成;在每个分支中,首先应用1×1的卷积来减少输入feature map X的通道数,以减少计算开销;在此基础上,采用1×1卷积进行特征自适应;这些层均伴随着bn和激活函数;最后,一个卷积层负责为每个位置生成全局attention map。
在这里插入图片描述

PSANet在FCN的基础上除了引入了PSA模块,还用了辅助损失。
整体框架如下:
在这里插入图片描述

  • 4
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
explicit spectral-to-spatial convolution for pansharpening是一种用于全色融合的显式光谱到空间卷积方法。全色融合是将高分辨率的全色(黑白)图像与低分辨率的多光谱(彩色)图像融合,以提高图像质量和细节。传统的融合方法常常使用高通滤波器进行频域操作,而explicit spectral-to-spatial convolution for pansharpening则使用基于卷积的空间域方法。 该方法基于以下原理:在全色图像中,光谱分辨率高,但空间分辨率较低;而在多光谱图像中,光谱分辨率较低,但空间分辨率较高。因此,通过将全色图像的光谱信息传递给多光谱图像,可以提高多光谱图像的空间分辨率。 explicit spectral-to-spatial convolution for pansharpening方法通过使用卷积核,将全色图像的光谱信息转换为空间域的高频细节。这个卷积核是根据光谱和空间信息之间的关系而设计的。通过将这个卷积核应用于低分辨率的多光谱图像,可以增强其空间细节,使其接近高分辨率的全色图像。 这种方法的优势在于显式地将光谱信息转换为空间域的细节,能够更好地保留图像的光谱特征和空间细节。与传统的频域方法相比,显式光谱到空间卷积方法更容易实现,并且能够更好地适应各种图像场景。 总之,explicit spectral-to-spatial convolution for pansharpening是一种通过卷积将全色图像的光谱信息转换为多光谱图像的空间细节的方法,以实现全色融合,提高图像质量和细节。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值