CV中的注意力机制

本文探讨了计算机视觉(CV)领域中注意力机制的应用,如Spatial Transformer Network (STN)和Squeeze-and-Excitation Networks (SENet)。STN通过学习形变完成任务预处理,而SENet通过特征重标定增强重要特征。这些机制模仿人类视觉系统,关注任务相关的关键区域,提高模型的表现。
摘要由CSDN通过智能技术生成

它的成功主要是由于一个合理的假设,即人类的视觉不会倾向于一次性处理完整的图像;相反,人们只关注整个视觉空间的选择性部分。

[1]Spatial Transformer Network

空间注意力模型(spatial attention):不是图像中所有的区域对任务的贡献都是同样重要的,只有任务相关的区域才是需要关心的,比如分类任务的主体,空间注意力模型就是寻找网络中最重要的部位进行处理。

STN网络(Spatial Transformer Network,通过学习输入的形变,从而完成适合任务的预处理操作,是一种基于空间的Attention模型,网络结构如下:

这里的Localization Net用于生成仿射变换系数,输入是C×H×W维的图像,输出是一个空间变换系数,它的大小根据要学习的变换类型而定,如果是仿射变换,则是一个6维向量。

[2]SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning

视觉注意力机制的成功应用主要是基于一个合理的假设,即人类的视觉不会倾向于一次性的对整张图像进行处理,而是选择性的关注我们所需的部分。具体来说,比起将图像编码为静态向量,注意力可以让图像特征从当前的句子上下文演化而来,从而为杂乱的图像提供更丰富、更长的描述。因此,视觉注意可以被认为是一种动态特征提取机制,它结合了随时间变化的语境注视。[1]目前我们的特征图都是通过CNN提取得来,所以说最后的特征图是一系列视觉抽象信息的堆叠,自然就具备了空间性,多通道性和多层的性质。

 空间域——对空间进行掩码的生成,进行打分

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值