Seq2Seq
Seq2Seq强调目的,不特指具体方法,满足【输入、输出序列】的目的,都可称为Seq2Seq模型;
Encoder-Decoder
Encoder-Decoder模型是一种通用的算法框架,更强调方法,通过编码与解码;将现实问题转化为数学问题,通过求解数学问题,从而解决现实问题;
Encoder-Decoder缺点:特征向量C的长度固定。
Attention
attention模型是为了解决【信息过长,信息丢失】的问题。Attention 模型的特点是 Eecoder 不再将整个输入序列编码为固定长度的「中间向量 C」 ,而是编码成一个向量的序列。