- 博客(1)
- 资源 (1)
- 收藏
- 关注
原创 TensorFlow学习之LSTM ---机器翻译(Seq2Seq + Attention模型)
一、理论知识Seq2Seq模型的基本思想:使用一个循环神经网络读取输入句子,将这个句子的信息压缩到一个固定维度的编码中;再使用另一个循环神经网络读取这个编码,将其“解压”为目标语言的一个句子。这两个循环神经网络分别称为编码器(Encoder)和解码器(Decoder),所以也称为 encoder-decoder 模型。解码器部分的结构与语言模型几乎完全相同:输入为单词的词向量,输出为soft...
2018-12-04 19:22:08 12936 9
TED演讲数据(2015-1中英)
TensorFlow学习之LSTM ---机器翻译(Seq2Seq + attention模型),用于学习机器翻译的TED2015-1中英文的资源
2018-12-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人