零基础学nlp【4】 global attention 和 local attention
主要内容
基于之前的注意力机制之上,这篇论文提出了两个概念,分别是“global attention”和“local attention”。两者区别在于构建注意力机制时前者使用所有的输入时刻的encoder隐变量,而后者采用部分的encoder隐变量。同时,与之前的注意力机制不同在对decoder的输出进行预测时,不是采用前一时刻的隐变量预测,而是采用当前时刻的隐变量预测当前时刻的输出。文中还采用了三种不同的注意力机制获得方法,并进行了比较
细节
global attention
global attention的结构如下图
可以看出,模型通过现在时刻dec