对话改写论文笔记(2021年初 )
对话改写论文学习author:熟透的小地瓜转载请注明出处水平有限,有错误还请讨论指出一、预备知识1.1 Seq2Seq 模型参考:Seq2Seq 模型详解、完全解析RNN, Seq2Seq, Attention注意力机制基础的Seq2Seq 是一种RNN模型使用的是 Encoder-Decoder结构,可以理解为一种 N * M 的模型即 Encoder 长度可以为N,Decoder 长度可以为M,多对多的序列结构Encoder 用于编码序列的信息,将任意长度的序列信息编码到一个向量
原创
2021-03-25 10:10:00 ·
1182 阅读 ·
0 评论