Seq2Seq Attention
前行的zhu
程序员小白的前行之路
展开
-
Seq2Seq Attention(这三篇就够了,精心发掘整理)
作为知识的搬运工,这里介绍三篇我认为关于Seq2Seq Attention,Transformer写的比较好的博客,都是出自知乎大神,特将它们搬运到CSDN。 第一篇是 真正的完全图解Seq2Seq Attention模型 和 Transformer模型笔记 文章的点赞数达到了500+ 作者是哥大+悉尼大学的小姐姐,知乎里只有6篇文章,但是偏偏质量都很高。 后两篇同样是知乎上的,不过是一个公共号 ...原创 2019-09-25 20:47:10 · 1767 阅读 · 0 评论 -
Seq2Seq Attention输入输出维度分析(最全面细致)
先给出Seq2Seq Attention的计算过程的截图,来源于知乎Yuanche.Sh的题为真正的完全图解Seq2Seq Attention模型的文章,也希望你阅读了我的上一篇文章:Seq2Seq Attention(这三篇就够了,精心发掘整理) 这样对Seq2Seq Attention会有一个比较基础全面的认识。为了进一步加深对于Seq2Seq Attention的认识,我们还需要搞懂,Seq...原创 2019-09-26 17:31:22 · 3901 阅读 · 4 评论 -
几张图彻底搞定Seq2Seq
Seq2Seq是一个Encoder-Decoder结构,其中Encoder为一个RNN结构,Decoder也为一个RNN结构,当然这里的RNN结构可以替换成为LSTM或者GRU等。我们以机器翻译的例子进行讲解,如下图,我们希望将汉语小明吃苹果翻译成为英文。首先是对汉语进行分词处理得到小明,吃,苹果三个词语,而我们希望输出的是xiao ming eats apples.具体的流程见下图: 这里的词...原创 2019-09-26 20:54:43 · 1831 阅读 · 2 评论