机器学习_李宏毅笔记简记5【RNN】

Recurrent Neural Network (RNN)

Example Application: Slot Filling(把单词切割出来)

在这里插入图片描述

用前面学过的神经网络(Feedforward network)来做

在这里插入图片描述

How to represent each word as a vector?(如果表示一个单词?向量)

1-of-N encoding
在这里插入图片描述
Beyond 1-of-N encoding
Dimension for “Other” (增加一个”other“)
Word hashing(三个字母为一组)
在这里插入图片描述

产生的问题:如何判断这个地点是出发的地点还是到达的地点?(用带有”记忆“的神经网络来做,RNN)

在这里插入图片描述

Recurrent Neural Network (RNN)

The output of hidden layer are stored in the memory.(特别之处)

在这里插入图片描述
举例RNN如何运作:
在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述
变体:
Elman Network (上面学的)
Jordan Network (输出记忆,带有标签)
Bidirectional RNN (视野更广,考虑一前一后)
在这里插入图片描述
在这里插入图片描述

Long Short-term Memory (LSTM)

上面的都是simple RNN,这个LSTM才是终极版(4个input(这4个信号都是机器自己学的),1个output,激活函数用sigmoid,介于0~1,衡量门开闭程度)
在这里插入图片描述在这里插入图片描述

LSTM运作见PPT(略)
在这里插入图片描述

LSTM对比Original Network(参数量是 它的4倍,4个信号输入(都是要机器自己学习的))

在这里插入图片描述在这里插入图片描述

解释LSTM与RNN的关系(如何带有记忆性)

在这里插入图片描述在这里插入图片描述

现在更加复杂的LSTM(记忆的值,当前输出的值都加到下一个输入上来)

在这里插入图片描述

Don’t worry if you cannot understand this. Keras can handle it.
Keras supports “LSTM”, “GRU”, “SimpleRNN” layers

在这里插入图片描述

RNN如何训练(BPTT,本质上还是gradient descent,不过要考虑整体训练)

在这里插入图片描述在这里插入图片描述

RNN不好训练,会产生梯度爆炸(clipping)或者梯度消失(LSTM)问题

解释为什么会产生梯度爆炸的问题(蝴蝶效应)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
解决梯度消失的问题(LSTM),并解释为什么可以(RNN每一次都会洗掉存的值,而LSTM只有在forget gate 关闭的时候才会洗掉)

在这里插入图片描述在这里插入图片描述

RNN的更多应用

在这里插入图片描述

多对一

情感识别
在这里插入图片描述
关键字抽取
在这里插入图片描述

多对多

语音辨识
在这里插入图片描述
在这里插入图片描述
机器翻译
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述
序列转化为结构
在这里插入图片描述

Sequence-to-sequence Auto-encoder - Text

在这里插入图片描述

Sequence-to-sequence Auto-encoder - Speech

在这里插入图片描述在这里插入图片描述

Demo: Chat-bot

在这里插入图片描述

Demo: Video Caption Generation

在这里插入图片描述

Demo: Image Caption Generation

在这里插入图片描述

RNN进阶:Attention-based Model

在这里插入图片描述在这里插入图片描述

应用举例:

Reading Comprehension
在这里插入图片描述
Visual Question Answering
在这里插入图片描述在这里插入图片描述

Speech Question Answering
在这里插入图片描述
在这里插入图片描述

Deep & Structure(略)

别人优秀的笔记

LeeML-Notes

20年课程网页

【2020春季】李宏毅机器学习(全) - 视频学习

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值