为什么深度学习不采用牛顿法或拟牛顿法作为优化算法?

出处:http://blog.csdn.net/VictoriaW/article/details/71710280
原因一:牛顿法需要用到梯度和Hessian矩阵,这两个都难以求解。因为很难写出深度神经网络拟合函数的表达式,遑论直接得到其梯度表达式,更不要说得到基于梯度的Hessian矩阵了。
原因二:即使可以得到梯度和Hessian矩阵,当输入向量的维度N较大时,Hessian矩阵的大小是N×N,所需要的内存非常大。
原因三:在高维非凸优化问题中,鞍点相对于局部最小值的数量非常多,而且鞍点处的损失值相对于局部最小值处也比较大。而二阶优化算法是寻找梯度为0的点,所以很容易陷入鞍点。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习优化算法有很多种,以下是一些常用的优化算法: 1. 梯度下降法(Gradient Descent):是深度学习最基本的优化算法之一,通过计算损失函数的梯度来更新模型参数,从而最小化损失函数的值。 2. 随机梯度下降法(Stochastic Gradient Descent):是梯度下降法的一种变体,每次更新时只随机选取一部分样本进行计算,可以加速模型的收敛速度。 3. 批量梯度下降法(Batch Gradient Descent):同样是梯度下降法的一种变体,每次更新时选取全部样本进行计算,可以减少随机性,但计算开销较大。 4. 动量法(Momentum):通过给梯度增加一个动量项,可以在更新时保持方向一致,从而加速模型的收敛速度,减少震荡。 5. 自适应学习率算法(Adaptive Learning Rate):如Adagrad、Adam等,根据梯度的大小自适应地调整学习率,可以加速收敛速度,提高模型的泛化能力。 6. L-BFGS算法:是一种基于拟牛顿法优化算法,可以有效地处理大规模数据和高维参数空间的优化问题。 7. RMSProp算法:是一种自适应学习率算法,可以根据历史梯度的大小自适应地调整学习率,有效地解决了Adagrad算法学习率下降过快的问题。 8. Adadelta算法:是一种自适应学习率算法,可以根据历史梯度的大小自适应地调整学习率和动量项,可以更加稳定地进行模型优化。 总之,深度学习优化算法有很多种,不同的算法有不同的优缺点,需要根据具体问题选择合适的算法来进行模型优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值