梯度下降——新感悟

    书读百遍,其义自见!

    以前学习神经网络的时候,只知道学习率α设置对与参数更新很关键。设置的太小,训练速度特别慢,设置的太大又会存在越过最低点,使得更新没办法收敛还有可能会发散。曾经看到过网上有人提出使用“变学习率”方法的,当时还觉得十分有理。

    今天看了吴恩达教授的讲解,又有了新的认识,当Θ越接近最低点的时候,其实代价函数 J(Θ) 的导数也逐渐在减小,这也使得在接近最低点的时候参数更新的幅度也在减小,所以其实没必要用“变学习率”的方法让学习率α随着迭代次数减小。

    图片引自:吴恩达机器学习

http://study.163.com/courses-search?keyword=%E5%90%B4%E6%81%A9%E8%BE%BE%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值