- 博客(1)
- 收藏
- 关注
原创 Transformer相关整理
Transformer相关整理1. Attention1.1 attention1.2 seq2seq中的attention1.3 self-attention2. Transformer2.1 Transformer结构2.2 encoder2.3 decoder 本文主要记录基于Datawhale9月组队学习课程对transformer的学习过程,对self-attention、attention以及transformer的结构原理进行总结,对其中某些细节以提问形式加深理解。 参考教程: 1. Atte
2021-09-15 22:44:11 96
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人