week_5

Andrew Ng机器学习笔记---by Orangestar

Week_5


重点:反向传播算法,backpropagation

1. Cost Function神经元的代价函数

回顾定义:(上节回顾)
L是☞层数
\(s_l\)指第l层的节点数,注意,该节点数不包含bais偏置项
K则是输出项的个数。也就是分类的个数

1737954-20190718202838058-1225145842.png

图解回顾:二元分类,多元分类
1737954-20190718202920779-299784643.png

接下来定义神经元的代价函数:
回顾:
逻辑回归中,代价函数(正则化):
1737954-20190718202936845-2091057449.png

对于神经网络:
1737954-20190718202949147-1227702915.png

解释:
这其实是一般逻辑回归的代价函数的一般形式。
前面这一大坨,计算的是每一个连线的代价函数,想想那个神经元。所以有2个求和符号。
后一坨,是对于所有的i,j来求和。当然,是每一层。所以有3个求和符号。
原汁原味的解释:
1737954-20190718203005459-382486384.png

笔记:

  • the double sum simply adds up the logistic regression costs calculated for each cell in the output layer.
  • the triple sum simply adds up the squares of all the individual \(\Theta\)s in the entire network
  • the i in the triple sum does NOT refer to training example!!!

2. ※ Backprpagation Algorithm 反向传播算法

回顾上节,我们需要计算一个非常复杂的式子,并要对这个式子求最小值:
1737954-20190718203025735-644169543.png

在本节我们重点讨论如何计算这个偏导项
首先,回顾前向传播算法:
1737954-20190718203036957-1218460226.png

下面,为了计算偏导项,我们需要使用反向传播算法
首先引入一个eroror:
1737954-20190718203048338-678388074.png

用来计算真实值和假设函数值的差值
\(\delta^{(i)}_j = a^{(i)}_j-y_j\)
这个$ a^{(i)}_j$ 就是\((h_\theta^{(x)})_j\)
注意,这时候,算的是输出层(即最后一层)
毕竟是反向传播算法嘛

当然,可以写成向量形式
\(\delta^{(4)}=a^{(4)}-Y\)
下一步,就要算前面几层的误差了
如图所示:
1737954-20190718203118631-1089150977.png

记住g的函数表达式,利用微积分知识很容易证明
当然,要注意的是,这里没有第一层,因为第一层是引入层,输入层,所以不可能有误差
经过十分复杂的证明:
我们可以证明出:
\(\frac\part{\part\theta}J(\theta) = a^{(l)}_j \delta^{(l+1)}_i\)  这里,我们忽略了标准项

  • 那么,如何实现?(很大的训练样本)
    基本思路是,先算出所有假设函数,在用训练样本中的值来计算error
    1737954-20190718203202559-1354154011.png

    跳出循环体后,可以计算:
    1737954-20190718203214878-1522661442.png

    然后,就可以计算出偏导项

1737954-20190718203226612-655316370.png

例题:1737954-20190718203241037-1050140305.png

好难理解啊啊啊啊啊啊


再来理一遍!!!:
Back propagation Algorithm

1737954-20190718203301328-1951241005.png
1737954-20190718203309890-821831280.png

解释:Where L is our total number of layers and $a^{(L)} $is the vector of outputs of the activation units for the last layer. So our "error values" for the last layer are simply the differences of our actual results in the last layer and the correct outputs in y. To get the delta values of the layers before the last layer, we can use an equation that steps us back from right to left:

然后:
1737954-20190718203328966-1150732095.png

解释:The delta values of layer l are calculated by multiplying the delta values in the next layer with the theta matrix of layer l. We then element-wise multiply that with a function called g', or g-prime, which is the derivative of the activation function g evaluated with the input values given by \(z^{(l)}\).

最后
1737954-20190718203341057-1888980969.png

好的,我知道我理解不了.......
我来偷一下懒:
https://zhuanlan.zhihu.com/p/25081671
https://zhuanlan.zhihu.com/p/25416673
这两篇文章讲的挺好的

3. 反向传播算法--直观感受

我们先来观察一下,前向传播算法是如何实现的:
1737954-20190718203400633-172100339.png

很容易理解。
接下来看看,后向传播算法到底在干嘛?
1737954-20190718203431030-1645393529.png

仔细观察,\delta是如何得到的
前面的误差\delta,由后面的误差来得到

4. 细节实现过程

主要讲如何实现数据向量化

好吧,我没学octave。放过我
1737954-20190718203444784-1326196412.png

例子:
1737954-20190718203457361-1855777537.png

我不会。放过我。
我就截图爽了,混课时长度
1737954-20190718203507657-251766826.png
1737954-20190718203515670-62734907.png

5. Gradient Checking

减少算法误差,减少模型错误,bug等
1737954-20190718203527457-192506402.png

双边导数比单边导数的精度更高
下面看看向量如何来估计?

1737954-20190718203559464-1279010028.png

下面又用octave了。饶了我!
1737954-20190718203612106-1452338841.png

最后,只要确认:
1737954-20190718203619180-539225539.png

注意:

1737954-20190718203627066-1088967677.png

检测完反向传播算法没问题后,一定要关掉梯度检验!
总结:
本节挺简单的,就是讲了下如何验证反向传播算法的正确性来估计!

6. Random Initialization

随机初始化,我们需要设置随机初始化。很多高级算法都需要
1737954-20190718203654081-806321735.png

(https://d3c33hcgiwev3.cloudfront.net/imageAssetProxy.v1/y7gaS7pXEeaCrQqTpeD5ng_8868ccda2c387f5d481d0c54ab78a86e_Screen-Shot-2016-12-04-at-11.27.28-AM.png?expiry=1563580800000&hmac=JyszF0nKHl7sZtxzpVzfeMOKskkmga1gdi2K3TGnrkI)

这节学的不是很好》》》》
octave害人

7.Put it Together

1737954-20190718203718035-64150991.png

1737954-20190718203725614-613037746.png
1737954-20190718203729115-2008050205.png


注明:博客写来完全是给我自己看的!自我满足。
而且,这周学的非常不好,好多知识感觉知识一带而过,
没有真正的理解,有可能是数学知识不够的原因,当然
也可能是最近有些浮躁,为了做笔记而做笔记,急于求成,之类的
希望我自己下次能改进,日后待知识足够,一定要把这周的知识理顺
共勉!

转载于:https://www.cnblogs.com/orangestar/p/11209839.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值