RNN笔记随写--李沐第十二课

今天看了李沐课程的第十二课,主要学习到了RNN的具体结构,以及弄明白了RNN中隐层的具体作用。
这里写图片描述

图中的前两行表示的是RNN中的H(隐层)、Y(输出)的具体计算方式
从图中我们可以得出,是先由输入Xt和上个隐层状态Ht-1得到本层的隐层Ht,再由本层的Ht得到本层的输出Yt。

隐层的具体作用我的理解是:循环神经网络使用隐层来记录前面看到的数据来帮助当前预测。

比如图中,在第一个节点输入“你”,然后在预测“好”的时候,同时输出了一个隐层状态H1。我们可以用这个隐层H1和下一个输入“好”来一起预测“世”,在预测“世”的同时输出一个隐层状态。如此循环往复下去

参考地址:https://mp.weixin.qq.com/s?__biz=MzAxMzc2NDAxOQ==&mid=2650365109&idx=3&sn=5b846c0c608f37009ce80b90d8a00de0&chksm=83906869b4e7e17fb901043f611d5964ddb249f3bc5c8fa9ebe6bd411e32e389298607c40775&scene=21#wechat_redirect

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值