[深度学习基础] 斯坦福CS231n李飞飞计算机视觉Lecture 10笔记

Lecture 10 Recurrent Neural Network

RNN

本章节主要探讨循环神经网络的内容,它与卷积神经网络略有不同,RNNs的目的使用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出:
在这里插入图片描述
上图展示了众多深度学习算法所注意的问题,一与多的问题,从左至右依次举例:传统方法、图片字幕提取、句子提取情感、字幕翻译、网络视频分类。
在这里插入图片描述
在上图中拿一个单词预测来举例,在预测的过程中比如输入依次为h、e、l、l,那么经过中间环节需要依次预测出当前字母所预测的下一个字母,这就需要之前的每一次都要参与预测,所以中间环节为:
在这里插入图片描述
最后的在整个序列中前向传播以计算损失,然后向后遍历整个序列以计算梯度:
在这里插入图片描述
其实RNN的用途非常的广泛,机器翻译,语音识别,图像描述合成,模仿写论文、故事、数学公式甚至是代码。

我们还可以使用RNN结合CNN来对图片进行造句:
在这里插入图片描述
首先将CNN移除最后的分类层与Softmax层,将最后的输出连接到RNN的中间层,从初始值START开始预测,最后一起进行反向传播,例如下图:
在这里插入图片描述

LSTM

LSTM全称Long Short Term Memory ,它与一般的RNNs结构本质上并没有什么不同,只是使用了不同的函数去去计算隐藏层的状态。在LSTM中,中间结构被称为cells,可以把cells看作是黑盒用以保存当前输入 x t xt xt之前的保存的状态 h t − 1 h_{t−1} ht1,这些cells更加一定的条件决定哪些cell抑制哪些cell兴奋。它们结合前面的状态、当前的记忆与当前的输入。已经证明,该网络结构在对长序列依赖问题中非常有效:
在这里插入图片描述
其中cell结构就是 c t c_t ct,由 i , f , o i,f,o ifo三个二进制数控制(0或1),g是上层输出函数,看一下LSTM结构框图:
在这里插入图片描述

小结

了解循环神经网络主要内容,深入了解RNN框架与LSTM框架

资料来源:

  1. 斯坦福CS231n李飞飞计算机视觉视频课程:https://study.163.com/course/courseMain.htm?courseId=1003223001
  2. CS231n官方笔记授权翻译总集篇:https://zhuanlan.zhihu.com/p/21930884
  3. CS231n官方PPT:http://vision.stanford.edu/teaching/cs231n/syllabus.html
  4. 循环神经网络(RNN, Recurrent Neural Networks)介绍:https://blog.csdn.net/heyongluoyao8/article/details/48636251
  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值