函数沿某一方向的变化率_关于吴恩达机器学习的“线性回归”问题的“梯度下降算法”的代价函数求偏导结果推导过程...

1. 假设函数(Hypothesis)

用一线性函数拟合样本数据集,可以简单定义为如下:

cb71620281749ffe556ed440c557dfce.png

其中

06ea6e03e06aba6ed036170c3421eed9.gif

1164b4c211b1fbb8d42b6fb650233d8f.gif

为参数。

2. 代价函数(Cost Function)

衡量一个假设函数的“损失”,又称作“平方和误差函数”(Square Error Function),给出如下定义:

fad0704e4fa9b35d14a87848b7064873.gif

相当于,对所有样本的假设值与真实值之差的平方再求总和,再除以样本数量m,得到平均的“损失”。我们的任务是求出

06ea6e03e06aba6ed036170c3421eed9.gif

1164b4c211b1fbb8d42b6fb650233d8f.gif

使得这个“损失”最小。

3. 梯度下降(Gradient Descent)

梯度:某一函数在该点处的方向导数沿该方向取得最大值,即在该点变化率(斜率)最大。

梯度下降:使得自变量

c787a028e3576e704440498f9ba52b02.gif

沿着使

9331f3250accabfab2585bab2cde57bc.gif

下降最快的方向移动,尽快取得

9331f3250accabfab2585bab2cde57bc.gif

的最小值,给出如下定义:

195b4efe6e9ff3ad6428f73124575e6b.gif

吴恩达的课程中我了解到,梯度下降是需要所有自变量同时“下降”的,所以,我们可以转化为分别对

454523cc64744bd21270832ada633c38.png

a2a0d74c0941dc46f74b7c2569c256ef.png

求偏导数,即固定

454523cc64744bd21270832ada633c38.png

a2a0d74c0941dc46f74b7c2569c256ef.png

作为变量进行求导,反之对

a2a0d74c0941dc46f74b7c2569c256ef.png

一样。

我们了解代价函数是

9795bd56a0ea710e8a1d046272aab038.png


,其中

cb71620281749ffe556ed440c557dfce.png

,那么,我们根据复合函数的求导原则,dx/dy​​=(du/dy)​∗(dx/du​),即转化为:

43465322bc6f7f073cafd71a4701e2c6.png

最后得到课程中的结果:

ecb6b3f769991eff6d45146eac7a210a.png

160a0555df8fafdd35afa50b1ecf5c0c.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值