1.FFN层和z1和z2层是不同的,FFN层是隔开的,权重不共享的,而Z1和Z2不是隔开的
2.Q,K,V是借鉴了搜索的思维在里面,Q是query的意思,<K,V>是<key,value>的意思,Q值就是word应该映射一会进行搜索的值,K是搜索的目标,V是目标值,类似K是文档的主题,V是文档的向量,Q是搜索文档的文本。这样就能训练得到word与word之间的关系,不同的W就表示搜索的维度不一样
3.借鉴ResNet思想,embedding层可以越过normalize处理结果,防止梯度消失,因为添加上面可以直接反馈到最下面一层
4.decode部分,可以看出翻译的时候,翻译结果的attention是依次输入的使用masked Multi-Head Attention进行attention,而等后面的Multi-Head的时候才进行接入encode的结果,接入过程是q是使用encode的记过跟Wq进行计算得到的,而k和v都是使用Mu