以下内容和图片均来自台湾大学深度学习课程。
课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html
Generation
RNN的应用方法
sentences
是由characters/word
组成;- 使用RNN的方法每次生成一个
characters/word
X 是之前产生的一个word
,用one-hot-encoding
表示。通过function
f 处理后,生成distribution probility
这部分其实之前课程中有讲过,这边重复一遍过程。举例说明,具体实践中每一步的实现方法。
- 假设
Train
的句子是“床前明月光”。 x1 为一句话的开始符,例如标识为<BOS>
,代表begin of sentences
。在这里,包括后面,不管是word
还是标识符<BOS><EOS>
,所有的 x 都用one-hot-encoding
的方式表示; -
x1 与 初始化的 h0 通过function
f ,得到y1 与 h1 。此时, y1 中的分布概率代表每个字出现在一句话首位的概率, P(w|<BOS>) 。 h1 则作为下一步的输入,向后传递信息; - 继续下一层。向 f 中输入
x2 与 h1 ,这里 x2 即为床
的one-hot-encoding
信息,得到 y2 与