- 博客(1)
- 收藏
- 关注
原创 注意力机制详解
注意力机制详解Attention机制由来Attention定义Encoder-Decoder框架存在问题:Attenion机制的引入Attention机制的类别Hard AttentionSoft AttentionGlobal AttentionLocal AttentionSelf AttentionMulti-head Attention附录—Transformer全局视角Tensor视角Encoder部分Self-AttentionSelf-Attention向量计算Self-Attention的矩
2021-12-30 00:40:51 11325 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人