处理输入是sequence vectors(一排向量)
输出的类别“:
1)自注意力机制
描述:会考虑整个input sequence的信息,从而判断某个单词的词性
2)self-attention的执行流程
计算的过程:
注意:wk,wq是训练出来的
self-attention适用于输入是一排向量(input a set of vectors)的时候
例如:applying image
注意:1) CNN<self-attention<fully connected
2) self-attention弹性比较大,训练资料少的时候就会overfitting,在训练资料多的时候会表现非常好
CNN弹性比较小,在训练资料少的时候会比self-attention表现的比较好
处理图像self-attention 和 CNN的区别