学习笔记迁移至以下公众号:
ATTENTION MECHANISM
自己看过的关于attention mechanism写的比较好的博文。
1.https://blog.heuritech.com/2016/01/20/attention-mechanism/
部分截图:
Multi-head Attention
2.https://kexue.fm/archives/4765(苏剑林)(作者附有代码)
3.http://www.cnblogs.com/robert-dlut/p/5952032.html