T5、BERT、GPT
提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
例如:第一章 T5与BERT与GPT之间的区别
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
- BERT,是一个Transformer encoder结构(双向attention),把input从文本空间映射到向量空间
- GPT,是一个Transformer decoder结构,给定一个向量空间的向量,GPT将会把这个向量映射到文本空间
- T5是BERT+GPT模型
Encoder: 将文本映射到向量空间; Decoder: 将向量映射到文本空间