对注意力机制的过程不太了解的建议先学习完注意力机制之后再来学习Transformer
3 Self+Multi-Head+Multi-Head-Self+Attention机制
由于Typora写的md文档导入还是会有问题,懒得折腾了直接搞成图片了。累了,将就看吧!
转发请注明来源:
小白敬亭-CSDN博客https://blog.csdn.net/weixin_51094405?spm=1000.2115.3001.5343
对注意力机制的过程不太了解的建议先学习完注意力机制之后再来学习Transformer
3 Self+Multi-Head+Multi-Head-Self+Attention机制
由于Typora写的md文档导入还是会有问题,懒得折腾了直接搞成图片了。累了,将就看吧!
转发请注明来源:
小白敬亭-CSDN博客https://blog.csdn.net/weixin_51094405?spm=1000.2115.3001.5343