Learning RNN from scratch (RNN神经网络参数推导)

本文详细介绍了RNN的基本理论和参数更新的反向传播过程,通过一个字符预测的实例,探讨了为何在输出层使用sigmoid激活函数时,应选择交叉熵误差作为损失函数。内容包括损失函数、前向传播、误差衡量及各个层的误差导数计算。
摘要由CSDN通过智能技术生成

从上一篇原创的文章到现在,已经有一年多了,目前终于有一些新的总结分享个大家。


本文主要讲了RNN神经网络的基本原理,并给出了RNN神经网络参数更新的详细推导过程(back propagation),对于想知道RNN的参数是如果推导的,可以仔细阅读本文。

因为时间有限,下面的总结难免有疏漏之处,请大家指正。


本文结合了一个非常经典的RNN的例子代码,进行了详细的说明,RNN的代码以及注释请见:https://github.com/weixsong/min-char-rnn


并且,本文给出了验证为什么在output layer采用sigmoid激活函数的时候应该采用cross entropy error作为cost function。


本文目录:

1.Introduction

2.Simple RNN Theory

3. Using RNN to predict next character

4. Loss Function

4.1 Sum of Squared error (Quadratic error)

4.2 Cross Entropy Error

5. Forward Propagation

6. Quadrati

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值