用偏导数作为梯度下降算法中下降量

机器学习2-7课讲梯度下降算法

 

首先,这个算法基于cost函数J(θ0,θ1)的偏导数,目的是找J的最小值(局部最小),J最小代表h与实际的(x,y)分布最接近。

 

运算时需要将(θ0,θ1)带入到每次运算中的hθ。因为每次梯度下降运算后,hθ=θ0+θ1x都会发生变化。

 

为什么偏导数是全部误差的均值,(再乘系数α)?

因为,那不是hθ的导数,而是代价函数J(θ0,θ1)的偏导数,想想什么是代价函数,定义代价函数就是为了计算函数估计值与实际值之间的方差,所以代价函数的导数自然与误差有关。

为什么用偏导数作为梯度下降算法中的下降量?

吴教授视频里没说,应该数学的成熟算法。怎么发明出来的我不知道,但用导数做下降量有个好处,当(θ0,θ1)接近最小值时,一般情况下导数趋于0,下降幅度将逐步减小,也就是说导数是下降的速度,导数趋于0,下降速度趋于0,这样无论做多少次迭代运算,计算结果都在最小值附近,理论上无限接近最小值,而不会偏差到其他位置。最小值点就像有吸引力的黑洞一样,不会让计算结果偏离它。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值