【Python机器学习】梯度下降法(三) 优矿(uqer.io)

本文介绍了在梯度下降法中,学习率衰减因子(decay)的重要作用。通过分析,得出decay能有效减缓搜索过程中的震荡,控制步长以改善收敛效果。当decay增大,学习率衰减加快,有助于寻找更优解,但设置过大可能影响收敛到极值。起始学习率为1.0,实验显示decay为0.1时,50次迭代后学习率降至0.2。
摘要由CSDN通过智能技术生成

前言

梯度下降法(Gradient Descent)是机器学习中最常用的优化方法之一,常用来求解目标函数的极值。  
其基本原理非常简单:沿着目标函数梯度下降的方向搜索极小值(也可以沿着梯度上升的方向搜索极大值)。 

《【Python机器学习】梯度下降法(一)》中简单分析了学习率大小对搜索过程的影响,发现:

    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值