Location-based Attention和self-attention类似,不需要额外信息。
Concatenation-based Attention和src-attention类似,需要额外信息。
参考:
[1] Attention Model(mechanism)的套路
Location-based Attention和self-attention类似,不需要额外信息。
Concatenation-based Attention和src-attention类似,需要额外信息。
参考:
[1] Attention Model(mechanism)的套路