NLP系列模型解析:
Transformer:https://blog.csdn.net/lppfwl/article/details/121084602
GPT系列:https://blog.csdn.net/lppfwl/article/details/121010275
BERT:https://blog.csdn.net/lppfwl/article/details/121124617
Transformer:Attention is all you need ,谷歌2017年针对机器翻译推出来的模型,是后面GPT、BERT等发展的基础模型。附上原论文:https://paperswithcode.com/paper/attention-is-all-you-need?
Transformer提出了一种全新的NLP模型架构,模型的全部重点都在于attention机制,完全不同于以往的RNN和CNN。先上模型结构图,接下来就根据这张图进行一点点的解析。
Transformer模型由两部分组成:encoder和decoder,这也是以往的机器翻译任务通用的模型结构。encoder负责提取输入inputs的语义信息,decoder负责根据encoder输出的语义特征信息生成翻译的结果,以往的机器翻译模型还会在decode的时候针对encoder输出的语义特征加上注意力机制来提升性能,但是这里的注意力只是作为辅助手段,而Transformer是将attention机制作为模型的核心。
ok,现在进入正题,先讲encoder。