作者:王同学死磕技术
链接:https://www.jianshu.com/p/0f0c674837e3
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
Attention技术在 NLP 模型中几乎已经成了不可或缺的重要组成部分,最早Attention主要应用在机器翻译中起到了文本对齐的作用,比如下图,Attention 矩阵会将 法语的 La Syrie 和英语的 Syrie 对齐,Attention 机制极大的提升了机器翻译模型的性能。
而最近各种花式的Attention机制相继被提出,同时这些Attention机制也不断的刷新着各种NLP任务的SOTA(state of the art)。Attention 机制 一般用于RNN,其主要思想是引入一个外部的权重得分值,对RNN每个时刻Cell的输出做一个重要度打分。由于RNN本质上还是一个特征抽取的过程,所以Attention机制的目标是帮助我们自动找出RNN的哪个时刻Cell的输出是强特,如果是RNN的输入是一个句子,我们就希望Attention机制能够帮我们找出,句子中的哪个词是比较关键的词 。通俗的说法就是Attention机制使模型在做任务时,将注意