吴恩达《机器学习》笔记——第九章《神经网络:学习》

9.1 Cost function(代价函数)

对于分类问题,分为二分类和多分类问题。对于二分类,输出层只需要一个单元(unit);对于多分类,输出层需要分类数个单元。如下图所示:
在这里插入图片描述
代价函数如下图所示:
在这里插入图片描述
注:和以前提到的一样,正则项对所有的偏置单元所对应的 θ 0 \theta_0 θ0(西瓜书中的阈值)都不作用,只对其余的参数(权重)进行惩罚。

9.2 Backpropagation algorithm(反向传播算法)

对应于西瓜书中的误差逆传播算法(error Backpropagation algorithm),简称“BP算法”。
BP算法的核心思想就是:“链式法则”求导。先求出代价函数对各个层级单元的偏导,然后再根据该层级对前一层级的参数(权重)求导,利用链式法则,就能求出代价函数对每个层级的参数(权重)的偏导,然后就可以利用优化算法进行优化。根据代价函数,从输出层,按照层级的顺序反向对各个层次求导,因此被称为“反向传播算法”。

现在的库这么高级,一般不需要编程人员自己收到编写反向传播算法,可以直接调用库。

9.3 Backpropagation intuition(理解反向传播)

在这里插入图片描述
上图是将神经网络的步骤分的更细了,其中的 z ( l ) z^{(l)} z(l)是第 l l l层激活函数的输入, a ( l ) a^{(l)} a(l)是第 l l l层激活函数的输出,这意味着 a ( l ) a ( l ) = g ( z ( l ) ) a^{(l)}a^{(l)}=g(z^{(l)}) a(l)a(l)=g(z(l)) g g g是激活函数,并且 z ( l + 1 ) = Θ ( l ) a ( l ) z^{(l+1)}=\Theta^{(l)}a^{(l)} z(l+1)=Θ(l)a(l),这样写的目的就是第八章中所说的为了更简洁地写出反向传播算法中的链式法则求导的形式。

9.5 Gradient checking(梯度检测)

这一节所说的是:利用数值梯度去检测根据反向传播算法算出来的梯度是否一样(这里的一样是指相近)。不一样的原因在于,反向传播算法编程的时候有bug,和数学无关。

注:不用每一次迭代都进行检查,可以每隔几次迭代检查一次。因为,求解数值梯度计算量大。

9.6 Random initialization(随机初始化)

优化过程中的初始化,通常是随机给的,而不是都选0,这是因为如果都选0,则下图中,任意两条相同颜色的线所对应的参数(权重)就会在整个迭代优化过程中,始终都是一样的(这种情况称为“对称”),这样明显不合理。
在这里插入图片描述
随机初始化的方法,如下图所示,其中 ϵ \epsilon ϵ是小值。
在这里插入图片描述

9.7 Putting it together(组合到一起)

本节就是把前面讲的总结到一起,说明了神经网络的总体实现过程。

第一步,选择神经网络结构在这里插入图片描述
第二步,训练神经网络

在这里插入图片描述在这里插入图片描述
注:训练集,验证集,测试集等后面会讲到。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值