Andrew NG 《machine learning》week 5,class1 —Cost functions and Backpropagation

Andrew NG 《machine learning》week 5,class1 —Cost functions and Backpropagation

1.1 cost function

如下图所示,本小节主要讲述了神经网络的代价函数的表达式。
神经网络代价函数
与其它算法不同的是:神经网络的输出是一个实数。
接下来就要讲解神经网络的参数求解算法。

1.2 Backpropagation Algorithm

同其他的算法一样,我们需要求解神经网络算法中的参数,具体可以用梯度下降、正则化等方法求解。
神经网络12

如上图所示,需要通过最小化代价函数来求得参数threa。要求解代价函数的最小值,主要是需要编码计算上图所示的偏导和代价函数。
为了求解最小代价函数以及偏导数,先从一个训练集开始。如下图所示,只有一个训练数据集(x,y).下图展示的神经网络算法的前向传播的思想。
一个训练集的前向传播
下面为了计算导数项,将采用反向传播的算法。如下图所示,反向传播的算法思想就是先得出最终的误差,然后不断的反向传递到前面的网络结构,从而计算出导数值。
反向传播思想

反向传播函数算法如下图所示:(可以去掉下标,表示成向量形式)
算法流程

反向传播算法可以用来计算代价函数以及偏导数。接下来将做一些详细的说明和总体的总结。

1.3 Backpropagation Intuition

本小节主要是详细讲解反向传播算法的应用。
下图先是详细讲解了正向传播的思想、表达式之类的。反向传播的算法思想只需要反过来就可以啦。
正向传播思想
下图是反向传播的算法思想:
反向传播算法的思想

图中所展示的均是算法的一部分表达式,接下来的课程将会将其合并起来。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值