Abstract
主要翻译模型基于复杂的循环或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构 Transformer,它完全基于注意力机制,完全摒弃了递归和卷积。
self-attention
例子:i saw a saw.很明显这两个saw是不相同的,但是如果不考虑整个句子的信息,对于模型来说这两个saw没啥区别。
self-attention会包含一整个句子信息,input多少vector,就输出多少vector。(图中画圈的这四个vector是综合考虑到下面四个vector才得到的),那它是怎么得到的?
通过dot-product来计算a1,a2,a3,a4之间的关联性
通过观察soft-max过后得到的a`1,1 、a`1,2、a`1,3、a`1,4我们就可以知道谁与a`1,1关联性最大,之后就可以根据关联性来抽取重要的资讯。怎么抽?