attention详细版请戳这里
self-attention详细版请戳这里(transformer中的self-attention)


上图中的attention是BahdanauAttention,下面介绍LuongAttention:

其中
h
ˉ
s
\bar{h}_s
hˉs表示encoder每个hidden_state的输出,
h
t
h_t
ht表示decoder每个hidden_state的输出。

attention/self-attention
最新推荐文章于 2024-12-17 21:37:26 发布
2万+

被折叠的 条评论
为什么被折叠?



