【18】Vision Transformer:笔记总结与pytorch实现
下面借这篇blog记录一些阅读笔记,如果问题,恳请指出。前言paper原文:AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE一开始,Transformer在Attention is all you need这篇paper中提出,解决的自然语言中的序列问题,也就是将自然语言的word变成一个sequence问题,但是有效的解决了RNN的无法并行处理的问题,并且其可以考虑全局的咨询,而self-atte.
复制链接