梯度下降与预处理+学习率对结果的影响

书接上回线性回归笔记_灼清回梦的博客-CSDN博客

一、

 步长太小会导致训练时间过长:

 步长太大会导致数据浮动巨大:

 二、梯度下降有局部性:

 标准化:若x,y值差距过大,左图横纵坐标取值范围0-1,近似成为一条直线,会使得其变得更易迭代,收敛更快

右图x,y取值范围不同,会导致收敛极慢,所以一般拿到数据要先标准化

三、批量梯度下降演示:

 学习率对结果的影响:

 1.次数太多   2.合适  3.学习率太大未饱和(宁愿小不肯大,大了不理想)

四、随机梯度下降演示

五、minibatch梯度下降(小批量)

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值