tensorflow2.0北大课程笔记(三)

循环核
在这里插入图片描述
循环核按时间步展开
在这里插入图片描述
循环计算层:向输出反向生长
在这里插入图片描述
TF描述循环计算层
在这里插入图片描述
在这里插入图片描述
TF描述循环计算层
在这里插入图片描述
循环计算过程I
在这里插入图片描述
随机生成了Why,Whh,Wxh,记忆体个数为3个
在这里插入图片描述
第一次运算过后
在这里插入图片描述
输出层
在这里插入图片描述
RNN预测字母
实现代码

循环计算过程,连续输入四个字母,预测下一个字母

记忆体第一次更新(输入b)
在这里插入图片描述
第二次更新(输入c)
在这里插入图片描述
第三次更新(输入d)
在这里插入图片描述
第四次更新(输入e)
在这里插入图片描述
最后输出
在这里插入图片描述
jupyter代码实现

embeding
在这里插入图片描述
课程讲解
LSTM
表征长期记忆的细胞态Ct,等待存入长期记忆的候选态Ct波浪号
在这里插入图片描述

LSTM就是你听我讲课的过程,你现在脑袋里记住的内容是今天ppt第1页到第45页的长期记忆Ct在这里插入图片描述
,这个长期记忆Ct由两部分组成,一部分是ppt第1页到第44页的内容,也就是上一时刻长期记忆Ct-1,你不可能一字不差的记住全部内容,你会不自觉地忘掉一些,所以上个时刻的长期记忆Ct-1要乘以遗忘门在这里插入图片描述,这个乘积项表示留存在你脑中的对过去的记忆,我现在讲的内容是新知识,是即将存入你脑中的现在的记忆,现在的记忆由两部分组成,一部分是我现在讲的第45页ppt。在这里插入图片描述。你的脑袋把当前时刻的输入xt和上一时刻的短期记忆ht-1归纳形成即将存入你脑中的现在的记忆Ct波浪号在这里插入图片描述.
现在的记忆Ct波浪号乘以输入门与过去的记忆一同存储为长期记忆
在这里插入图片描述。当你把这一讲复述给你朋友时,你不可能一字不漏的讲出来,你讲的是留存在你脑中的长期记忆,经过输出门筛选后的内容,这就是记忆体的输出ht。当有多层循环网络时,这一层的输出是下一层的输入,输出的是这一层的提取的精华。你可以认为我现在扮演的就是第一层循环网络,每一页ppt我都是从一篇篇论文中提取出的精华,输出给你,作为第二层循环网路的你,接收到的数据是我的长期记忆经过tanh激活函数乘以输出门提取的短期记忆ht

TF实现LSTM
在这里插入图片描述
GRU网络
在这里插入图片描述
TF实现
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值