nlp中的attention、lstm、transformer、bert学习
参考文献
完全图解RNN、RNN变体、Seq2Seq、Attention机制https://www.leiphone.com/news/201709/8tDpwklrKubaecTa.html
Attention注意力机制介绍https://www.cnblogs.com/hiyoung/p/9860561.html
两篇结合看,理解的快
...
原创
2020-02-27 13:41:41 ·
650 阅读 ·
0 评论