最近几年注意力模型在深度学习各个领域被广泛使用,无论是做图像处理、语音识别还是自然语言处理的任务中,都需要用到注意力模型。所以在今天的内容中,我们先了解下注意力机制的工作原理。
什么是注意力机制?
当我们在看一件东西的时候,不难发现我们的关注点一定是我们当前看的这件东西的某一个地方/部位,这意味着人们注意某个目标或某个场景时,人类会利用有限的注意力资源从大量信息中快速筛选出高价值信息,使用视觉注意力机制可以极大地提高视觉信息处理的效率和准确性。
注意力机制的分类
从Attention的时空角度出发,我们可以分为Spatial Attention空间注意力和Temporal Attention时间注意力;从Attention的实际应用角度来看,可以分为Soft Attention 和Hard Attention。Soft Attention是所有的数据都会注意,都会计算出相应的注意力权值,不会设置筛选条件。Hard Attention会在生成注意力权重后筛选掉一部分不符合条件的注意力,让它的注意力权值为0,即为不再注意这些不符合条件的部分。
Encoder-Decoder框架
要了解深度学习中的注意力机制,就先得学习一下Encoder-Decoder框架,因为现
在大多数注意力模型都是在Encoder-Decoder框架上作用的,下面是是文本处理领域里常用的Encoder-Decoder框架最抽象的一种表示:
我们可以这样直观地理解一下:可以把Encoder-Decoder框架看作适合处理由一个句子生成另外一个句子的处理模型。对于句子对来说&