批梯度下降法与随机梯度下降法

选定线性回归模型后,确定参数 θ后就可以将模型用来预测。 目标函数 J(θ) 最小时 θ 才能确定。因此问题归结为求极小值问题,使用梯度下降法。 批梯度下降法最大的问题是求得的有可能是局部极小值,这与初始点选取有关。
梯度下降法流程:
1)首先对 θ 赋值,可以是随机的,也可以让 θ 是一个全零的向量。
2)改变 θ 的值,使得 J(θ) 按梯度下降的方向进行减少。
梯度方向由 J(θ) 对 θ 的偏导数确定 ,由于求的是极小值,因此梯度方向是偏导数的反方向。

  • 迭代更新的方式:
  1. 批梯度下降BGD
    batch gradient descent, 对全部的训练数据求得误差后再对 θ 进行更新;
  2. 随机梯度下降(增量梯度下降) SGD
    stochastic gradient descent (incremental gradient descent),每扫描一次都对θ 进行更新。可以在一定程度上避免陷入局部最优。
  3. mini-batch gradient descent MBGD
    每次扫描一部分训练数据对θ进行更新

第一种方法能够不断收敛,第二种方法可能结果不断在收敛处徘徊,第三种方法是两者的折中。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值