台湾大学深度学习课程 学习笔记 Lecture 5-2: Sequence Generation

以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.htmlGenerationRNN的应用方法sentences是由characters/word 组成;使用RNN的方法每次生成一个characters/word X 是之前产生的一个word,用one-hot-encodi
摘要由CSDN通过智能技术生成

以下内容和图片均来自台湾大学深度学习课程。
课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html

Generation

RNN的应用方法

  • sentences是由characters/word 组成;
  • 使用RNN的方法每次生成一个characters/word

X 是之前产生的一个word,用one-hot-encoding 表示。通过function f 处理后,生成distribution probility y
generation

例子

这部分其实之前课程中有讲过,这边重复一遍过程。举例说明,具体实践中每一步的实现方法。

  1. 假设Train 的句子是“床前明月光”。 x1 为一句话的开始符,例如标识为<BOS>,代表begin of sentences。在这里,包括后面,不管是word还是标识符<BOS><EOS>,所有的 x 都用one-hot-encoding的方式表示;
  2. x1 与 初始化的 h0 通过function f ,得到 y1 h1 。此时, y1 中的分布概率代表每个字出现在一句话首位的概率, P(w|<BOS>) h1 则作为下一步的输入,向后传递信息;
  3. 继续下一层。向 f 中输入 x2 h1 ,这里 x2 即为one-hot-encoding信息,得到 y2
  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值