机器学习day2——梯度下降

梯度下降

不仅是最小化线性回归的代价函数J,还可以最小化其他函数。

最小化任意函数

以初始点寻找最接近最优点的路线以其他点为初始点找到的是不同的最优点
梯度下降算法,不断更新θ0,θ1的值,直达收敛
学习率越大,θ
注意θ0,θ1需同步更新
导数的意义:
偏导的意义
α的意义:
α的影响
初始点就在最优解点时,梯度函数无效,导数为0
越接近最优解,α会自动地越来越小

梯度函数在代价函数中的应用

将代价函数代入所得θ0,θ1情况下的偏导数代入梯度下降算法,得到线性回归梯度算法
注意:有的函数具有局部最优解,有的只有全局最优解。
图解梯度下降算法在代价函数中的应用:
初始点

寻找最优解过程中,不断向最优解靠近

最优解点,拟合数据较好
梯度下降算法每步都遍历了整个训练集。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值