Attention机制梳理(三)——What is Attention in CV?

  现在NLP中很火的attention机制,其实早在14年Google-DeepMind的Compution Vision文章——Recurrent Models of Visual Attention中出现过了,15年的时候我曾做过一个ppt,介绍这篇文章,现在找不到了。这里我们通过重新梳理,希望能够搞清楚Attention的来龙去脉,有助于加深我们对Attention机制的理解。

How attention proposed in CV?


CNN在分类任务中的缺点

  14年GoogLeNet把图像分类任务推到了一个新高度,GoogLeNet是基于CNN技术实现的一种深层网络结构。但是,CNN通常使用固定大小的向量作为输入,这有几个缺点:

  • 如果输入图片大小过大,要么通过resize到固定大小,要么cut出若干patch作为输入。resize操作会造成图片细节的丢失,而cut出若干个patch会造成计算量线性增加
  • CNN本身具备一定的空间转换不变性,但当图像存在噪声或者目标部分遮挡时,CNN模型难以得到满意的结果

location-wise hard attention mechanism的具体做法

  于是Recurrent Models of Visual Attention提出使用location-wise hard attention mechanism进行RNN-based的图像分类。其具体做法是从输入图片中随机选择一个子区域去预测一个中间结果,模型既会预测图像标签,还可以定位目标的位置。也就是说attention based RNN model将图像分类和目标检测整合到了一个端到端的模型中。


location-wise hard attention mechanism的优势

  location-wise hard attention mechanism相比CNN-based的目标检测网络什么优势呢?
  CNN处理目标检测任务时,必须使用一个单独的网络去预测潜在的目标位置,然后对这些位置进行分类,潜在的目标位置往往很多,导致inference的代价非常高。


Why RNN-based Attention, not others?

作为早期CV-attention的开山经典之作,为什么会选择通过RNN完成Attention呢?

  • 以前的目标检测任务,通过分类级联减少滑窗数量,或者提高候选框中有目标存在的准确率的方法,去进行加速,但“预测候选框+分类的框架对目标检测任务的提升帮助有限
  • 显著性检测是基于人类感知提出来的一类任务,它通过局部低维特征找出潜在感兴趣的显著性区域,确实可以捕获人眼移动的一些属性,但是显著性检测的计算量很大,且只关注图像的低维语义,忽略了场景或任务需求的内容语义。
  • 也有一些方法像本文一样,将CV视为 a sequential decision task ,本文的做法就是将图像信息序列化地进行聚集,然后基于上一次得到的位置fixation,去决定下一次要关注的区域。有文章采用learned Bayesian observer mode进行目标检测,也有方法跟我们一样采样了a policy gradient formulation(策略梯度假设),但是其限制条件比我们更加严格,且系统只学到了一部分内容。

  跟本文最接近的,采用Attention化处理(attentional processing)的深度学习文章有以下三篇,可见本文提出的Glimpse Network并非空穴来风,本文的构想是采用RNN在时序上将视觉信息进行聚合,然后决定下一步采取什么动作。学习过程可以实现对序列决策处理的端到端优化,并不需要像以前的目标检测方法那样依赖于greedy action selection。


What is Recurrent Attention Model?

参考资料

模型

基于Attention的图片分类、图片生成、图片主题生成、字符识别博客已经介绍的很清楚了,这里引用过来

  1. Glimpse Sensor: 在t步,图片 x t x_{t} xt l t − 1 l_{t−1} lt1位置处取不同大小的区域,组合成数据 ρ ( x t , l t − 1 ) \rho\left(x_{t}, l_{t-1}\right) ρ(xt,lt1)
  2. Glimpse Network: 将图片局部信息与位置信息整合成 g t g_{t} gt
  3. Model Architecture: h t − 1 h_{t−1} ht1为隐藏记忆单元,每轮加入新的KaTeX parse error: Expected '}', got 'EOF' at end of input: g_{t),生成新的 h t h_{t} ht,并以此生成感兴趣的at与新的位置 l t l_{t} lt
    在这里插入图片描述
    下面对Glimpse Sensor、Glimpse Network和Model Architecture作更详细的解释。(引用自)
  • 图A:此部分称之为Glimpse Sensor,也就是感应器,其实就是给定一个图片的location(坐标,这个坐标为中心),采集一副大的图片的子图,因为使用的MNIST的图片,所以只有一个通道,黑白。另外,采集图片的尺寸不一样,有的图片采集的scale更大,从A中来看是采集了三个size的图片,然后进行sub-smapling获得统一尺寸的图片8x8(在Torch代码中,这个下采样图片个数变成了2)所以输入的locator(定位器) l t + 1 l_{t+1} lt+1和整副图片 x t x_{t} xt,得到了进行采样之后的n个子图片表达 ρ ( x t , l t − 1 ) \rho \left(x_{t}, l_{t-1}\right) ρ(xt,lt1)
  • 图B:总的输出是 g t g_{t} gt,由两部分的feature进行连接得到。其中 θ g 0 \theta_{g}^{0} θg0是由图A中的 ρ \rho ρ通过一个linear regression得到, θ g 1 \theta_{g}^{1} θg1是由locator通过linear regression得到。
  • 图C:这里面有一个RNN,图B得到的 g t g_{t} gt通过了linear regression,ReLU得到,然后 g t g_{t} gt通过linear regression得到 f h f_{h} fh(RNN中的hidden layer,可以用于下一次的输入以及当前的输出),然后将 h t h_{t} ht通过locator的网络,用于计算下一个输入的locator(具体操作看下一个section)。在这个网络里面,和普通RNN会有些不同,普通的RNN是不会把输出 l t − 1 l_{t-1} lt1和hidden layer同时保留进行计算的,一般是保留一个。这里要注意的就是 l t − 1 l_{t-1} lt1这部分的权值更新是没有监督学习的,只是根据reward进行gradient ascent。就是让这部分的权重更新的方向是更加接近positive reward。如果是negative reward就远离。

How to train like a Markov Decision Process?

由于本文的主要目的并非着重介绍RAM这篇文章,因此训练反向传导公式的推导引用自注意力机制之Recurrent Models of Visual Attention,并对其中缺失的推导细节做了补充

梯度推导的整体流程

  整个模型过程可以看做是一个局部马尔科夫决策过程。每个阶段的动作和位置只与上一阶段的动作和位置有关。即展开RNN结构,以时间为序,整个过程可表示为
s 1 : t = x 1 , l 1 , a 1 , … , x t − 1 , l t − 1 , a t − 1 , x t s_{1 : t}=x_{1}, l_{1}, a_{1}, \ldots, x_{t-1}, l_{t-1}, a_{t-1}, x_{t} s1:t=x1,l1,a1,,xt1,lt1,at1,xt  根据上一阶段的动作 a t a_{t} at和位置 l t − 1 l_{t-1} lt1,从输入图像提取出信息,通过模型网络,输出特征信息,利用POMDP决定出下一阶段的动作 a t a_{t} at和位置 l t − 1 l_{t-1} lt1,设:

  • π ( a t ∣ s 1 : t ; θ ) \pi\left(a_{t} | s_{1 : t} ; \theta\right) π(ats1:t;θ)为参数化为 θ \theta θ的随机策略;
  • p ( l 0 ) p\left(l_{0}\right) p(l0)为初始位置的概率;
  • p ( s t + 1 ∣ s 1 : t ; a t ) p\left(s_{t+1} | s_{1 : t} ; a_{t}\right) p(st+1s1:t;at)为执行动作 a t a_{t} at,位置由 l t l_{t} lt l t + 1 l_{t+1} lt+1的概率;
  • r ( s 1 : t , a t , s t + 1 ) r\left(s_{1 : t}, a_{t}, s_{t+1}\right) r(s1:t,at,st+1)表示执行动作 a t a_{t} at,位置由 l t l_{t} lt l t + 1 l_{t+1} lt+1的奖励;
  • γ t \gamma^{t} γt表示奖励的折扣。

  则整个过程的回报: R ( s ) = ∑ t = 1 T γ t r ( s 1 : t , a t , s t + 1 ) R(s)=\sum_{t=1}^{T} \gamma^{t} r\left(s_{1 : t}, a_{t}, s_{t+1}\right) R(s)=t=1Tγtr(s1:t,at,st+1)
  策略参数 θ \theta θ的期望回报为:
J ( θ ) = E p ( s ∣ θ ) [ R ( s ) ] = ∫ p ( s ∣ θ ) R ( s ) d s J(\theta)=E_{p(s | \theta)}[R(s)]=\int p(s | \theta) R(s) \mathrm{d} s J(θ)=Ep(sθ)[R(s)]=p(sθ)R(s)ds p ( s ∣ θ ) = p ( l 0 ) ∏ t = 1 T p ( s t + 1 ∣ s 1 : t , a t ) π ( a t ∣ s 1 : t , θ ) p(s | \theta)=p\left(l_{0}\right) \prod_{t=1}^{T} p\left(s_{t+1} | s_{1 : t}, a_{t}\right) \pi\left(a_{t} | s_{1 : t}, \theta\right) p(sθ)=p(l0)t=1Tp(st+1s1:t,at)π(ats1:t,θ)  对于梯度计算,有个log小技巧, ∇ p ( s ∣ θ ) = p ( s ∣ θ ) ∇ log ⁡ p ( s ∣ θ ) \nabla p(s | \theta)=p(s | \theta) \nabla \log p(s | \theta) p(sθ)=p(sθ)logp(sθ)故计算回报的梯度有:
∇ θ J ( θ ) = ∫ ∇ θ p ( s ∣ θ ) R ( s ) d s \nabla_{\theta} J(\theta)=\int \nabla_{\theta} p(s | \theta) R(s) \mathrm{d} s θJ(θ)=θp(sθ)R(s)ds = ∫ p ( s ∣ θ ) ∇ θ log ⁡ p ( s ∣ θ ) R ( s ) d s =\int p(s | \theta) \nabla_{\theta} \log p(s | \theta) R(s) \mathrm{d} s =p(sθ)θlogp(sθ)R(s)ds = ∫ p ( s ∣ θ ) ∑ t = 1 T ∇ θ log ⁡ π ( a t ∣ s 1 : t ; θ ) R ( s ) d s =\int p(s | \theta) \sum_{t=1}^{T} \nabla_{\theta} \log \pi\left(a_{t} | s_{1 : t} ; \theta\right) R(s) \mathrm{d} s =p(sθ)t=1Tθlogπ(ats1:t;θ)R(s)ds = E p ( s ∣ θ ) [ ∑ t = 1 T ∇ θ log ⁡ π ( a t ∣ s 1 : t ; θ ) R ( h ) ] =E_{p(s | \theta)}\left[\sum_{t=1}^{T} \nabla_{\theta} \log \pi\left(a_{t} | s_{1 : t} ; \theta\right) R(h)\right] =Ep(sθ)[t=1Tθlogπ(ats1:t;θ)R(h)]
  由于 p ( s ∣ θ ) p(s | \theta) p(sθ)未知,故取经验平均求解,即:
∇ θ J ( θ ) ^ = 1 M ∑ i = 1 M ∑ t = 1 T ∇ θ log ⁡ π ( a t i ∣ s 1 : t i ; θ ) R t i \nabla_{\theta} J \hat{(\theta)}=\frac{1}{M} \sum_{i=1}^{M} \sum_{t=1}^{T} \nabla_{\theta} \log \pi\left(a_{t}^{i} | s_{1 : t}^{i} ; \theta\right) R_{t}^{i} θJ(θ)^=M1i=1Mt=1Tθlogπ(atis1:ti;θ)Rti
  可以通过减去一个 b t b_{t} bt降低方差,即:
1 M ∑ i = 1 M ∑ t = 1 T ∇ θ log ⁡ π ( a t i ∣ s 1 : t i ; θ ) ( R t i − b t ) \frac{1}{M} \sum_{i=1}^{M} \sum_{t=1}^{T} \nabla_{\theta} \log \pi\left(a_{t}^{i} | s_{1 : t}^{i} ; \theta\right)\left(R_{t}^{i}-b_{t}\right) M1i=1Mt=1Tθlogπ(atis1:ti;θ)(Rtibt)
   b t b_{t} bt可取 E π [ R t ] E_{\pi}\left[R_{t}\right] Eπ[Rt],该算法被称为REINFORCE。
  训练神经网络自然想到反向传播,通过REINFORCE得到 f a f_{a} fa f l f_{l} fl的梯度信息。然后反向依次训练RNN,Glimpse Network。对于分类问题,由于 a T a_{T} aT是确定,最大化 log ⁡ π ( a T ∣ s 1 : T ; θ ) \log \pi\left(a_{T} | s_{1 : T} ; \theta\right) logπ(aTs1:T;θ),通过优化 f a f_{a} fa的交叉熵得到梯度,反向训练模型。

梯度推导的补充

∇ θ log ⁡ p ( s ∣ θ ) = ∑ t = 1 T ∇ θ log ⁡ π ( a t ∣ s 1 : t ; θ ) \nabla_{\theta} \log p(s | \theta)=\sum_{t=1}^{T} \nabla_{\theta} \log \pi\left(a_{t} | s_{1 : t} ; \theta\right) θlogp(sθ)=t=1Tθlogπ(ats1:t;θ)的推导:

p ( s ∣ θ ) = p ( l 0 ) ∏ t = 1 T p ( s t + 1 ∣ s 1 : t , a t ) π ( a t ∣ s 1 : t , θ ) p(s | \theta)=p\left(l_{0}\right) \prod_{t=1}^{T} p\left(s_{t+1} | s_{1 : t}, a_{t}\right) \pi\left(a_{t} | s_{1 : t}, \theta\right) p(sθ)=p(l0)t=1Tp(st+1s1:t,at)π(ats1:t,θ)两边求 log ⁡ \log log,得:
log ⁡ p ( s ∣ θ ) = log ⁡ p ( l 0 ) + ∑ t = 1 T log ⁡ ( p ( s t + 1 ∣ s 1 : t , a t ) π ( a t ∣ s 1 : t , θ ) ) \log p(s | \theta)=\log p(l_{0}) +\sum_{t=1}^{T}\log (p\left(s_{t+1} | s_{1 : t}, a_{t}\right) \pi\left(a_{t} | s_{1 : t}, \theta\right)) logp(sθ)=logp(l0)+t=1Tlog(p(st+1s1:t,at)π(ats1:t,θ))   为了让公式看的更清楚,将 p ( s t + 1 ∣ s 1 : t , a t ) p\left(s_{t+1} | s_{1 : t}, a_{t}\right) p(st+1s1:t,at)简写成 p ( s t + 1 ∣ t ) p\left(s_{t+1} | t\right) p(st+1t),将 π ( a t ∣ s 1 : t , θ ) \pi\left(a_{t} | s_{1 : t}, \theta\right) π(ats1:t,θ)简写成 π ( a t ∣ t , θ ) \pi\left(a_{t} | t, \theta\right) π(att,θ),代入上式得到,同时对两边求梯度 ∇ \nabla ,得:
∇ log ⁡ p ( s ∣ θ ) = ∇ log ⁡ p ( l 0 ) + ∇ ∑ t = 1 T log ⁡ ( p ( s t + 1 ∣ t ) π ( a t ∣ t , θ ) ) \nabla\log p(s | \theta)=\nabla\log p(l_{0}) +\nabla\sum_{t=1}^{T}\log (p\left(s_{t+1} | t\right) \pi\left(a_{t} |t, \theta)\right) logp(sθ)=logp(l0)+t=1Tlog(p(st+1t)π(att,θ))   注意,这里 log ⁡ p ( l 0 ) \log p\left(l_{0}\right) logp(l0)是跟t和 θ \theta θ无关的常量,求导后为0,消去 log ⁡ p ( l 0 ) \log p\left(l_{0}\right) logp(l0)后,得:
∇ log ⁡ p ( s ∣ θ ) = ∇ ∑ t = 1 T log ⁡ ( p ( s t + 1 ∣ t ) π ( a t ∣ t , θ ) ) \nabla\log p(s | \theta)=\nabla\sum_{t=1}^{T}\log (p\left(s_{t+1} | t\right) \pi\left(a_{t} |t, \theta\right)) logp(sθ)=t=1Tlog(p(st+1t)π(att,θ))   利用 log ⁡ ( a b ) = log ⁡ a + l o g b \log(ab)=\log a + logb log(ab)=loga+logb将上式右边展开得,
∇ log ⁡ p ( s ∣ θ ) = ∇ ( ∑ t = 1 T ( log ⁡ ( p ( s t + 1 ∣ t ) + log ⁡ ( π ( a t ∣ t , θ ) ) ) ) \nabla\log p(s | \theta)=\nabla(\sum_{t=1}^{T}(\log (p\left(s_{t+1} | t\right) + \log(\pi\left(a_{t} |t, \theta\right)))) logp(sθ)=(t=1T(log(p(st+1t)+log(π(att,θ))))   考虑到 log ⁡ ( p ( s t + 1 ∣ t ) \log (p\left(s_{t+1} | t\right) log(p(st+1t)为常数,求导后为0,故可消除,得:
∇ log ⁡ p ( s ∣ θ ) = ∇ ( ∑ t = 1 T ( log ⁡ ( π ( a t ∣ t , θ ) ) ) ) \nabla\log p(s | \theta)=\nabla(\sum_{t=1}^{T}( \log(\pi\left(a_{t} |t, \theta\right)))) logp(sθ)=(t=1T(log(π(att,θ))))  将 ∇ \nabla 移到 ∑ \sum 里面,再加上 θ \theta θ角标,得:
∇ log ⁡ p ( s ∣ θ ) = ∑ t = 1 T ( ∇ log ⁡ ( π ( a t ∣ t , θ ) ) ) \nabla\log p(s | \theta)=\sum_{t=1}^{T}(\nabla \log(\pi\left(a_{t} |t, \theta\right))) logp(sθ)=t=1T(log(π(att,θ)))  最后,将 π ( a t ∣ t , θ ) \pi\left(a_{t} | t, \theta\right) π(att,θ)替换回 π ( a t ∣ s 1 : t , θ ) \pi\left(a_{t} | s_{1 : t}, \theta\right) π(ats1:t,θ),得:
∇ log ⁡ p ( s ∣ θ ) = ∑ t = 1 T ( ∇ log ⁡ ( π ( a t ∣ s 1 : t , θ ) ) ) \nabla\log p(s | \theta)=\sum_{t=1}^{T}(\nabla \log(\pi\left(a_{t} | s_{1 : t}, \theta\right))) logp(sθ)=t=1T(log(π(ats1:t,θ)))  至此,完成推导。

R替换成R-b的作用

这里的主要作用是为了减少方差,VR(Variance Reduction)方法以及其中的baseline都是增强学习中的基本设置。更多理解,待后续补上强化学习的知识之后,再来分析。

源码分析

在这里插入图片描述
请参考【增强学习】Recurrent Visual Attention源码解读:结合torch代码,解读RAM的网络结构

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值