注意力
Attention-based Pyramid Aggregation Network for Visual Place Recognition
https://arxiv.org/abs/1808.00288
show,attend and tell
lstm的每个时间步的输入分成三个部分,一部分是前一个词汇,一部分是隐藏状态,另一部分是加了attention的图像信息
下面我们主要来看
z
t
z_t
zt,加了注意力权重的图片信息,下面公式中L代表feature map的location位置,14X14=196,i
∈
\in
∈(1,196),每个location像素对应一个注意力权重,
α
i
\alpha_i
αi
SCA-CNN: Spatial and Channel-wise Attention in Convolutional …