前言 Transformer是2017年google在Attention is All You Need中提出的,当时主要是针对自然语言处理领域的优化,最近在CV领域非常热。文章中提出了Self-Attention的概念和Multi-Head Attention的概念,需要对这两个概念进行理解 核心概念 Self-Attention https://blog.csdn.net/qq_37541097/article/details/117691873