李宏毅深度学习——Recurrent Neural Network (RNN)

本文介绍了RNN如何通过记忆功能适应不同情景的输出,并探讨了LSTM的重要结构,强调了LSTM参数量相对CNN的增加,以及在Keras中可用的RNN层。同时提到了RNN的不稳定性问题和解决策略如gradient clipping。
摘要由CSDN通过智能技术生成

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAbTBfNTg1ODYyMzU=,size_20,color_FFFFFF,t_70,g_se,x_16

 上图中当我们输入Taipei,一个表达的是目的地,另一个表达的是出发地,我们该如何让神经网络在输入相同时,按照情景不同输出不同,这就需要让神经网络具有记忆功能,能够根据Taipei之前面的单词决定相应输出。

 

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAbTBfNTg1ODYyMzU=,size_20,color_FFFFFF,t_70,g_se,x_16

RNN是具有记忆功能的网络。隐藏层的输出值被储存在了memory中,memory可以继续作为另一个输入值。

例如下图。设所有的权重都为1,没有偏置值。设在开始时memory为0,所以绿色部分的值计算过程为1*1+1*1+0+0=2。此时将2更新到memory中。橘色部分计算为2*1+2*1=4。输入值[1,1]T输出值为[4,4]T

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAbTBfNTg1ODYyMzU=,size_20,color_FFFFFF,t_70,g_se,x_16

 watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAbTBfNTg1ODYyMzU=,size_20,color_FFFFFF,t_70,g_se,x_16

输出值[1,1]T

绿色 1*1+1*1+2*1+2*1=6   将6储存到memory中

橘色 6*1+6*1=12   

输出值[12,12]T

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值