最优化问题之如何逃离(跳出)鞍点(Saddle Points)

在深度学习优化中,鞍点是个难题,它可能导致优化过程停滞。本文介绍了鞍点的特性,如在高维空间的普遍性,以及为什么传统牛顿法不适合解决这一问题。逃离鞍点的方法包括利用Hessian矩阵判断、随机梯度下降、随机初始化参数以及增加随机扰动。这些策略有助于优化算法避开鞍点,继续搜索全局最优解。
摘要由CSDN通过智能技术生成

看了点鞍点相关的知识,做一下备录。

我们知道在,优化问题中,深度学习的优化问题中,经常存在鞍点,就是这一点的导数为0,从某些维度看是极小值,从另一些维度看是极大值,比如:

这里写图片描述

深度学习的寻优过程中,鞍点所造成的困难,远比局部最小值大的多,因为

1)在高维参数空间,鞍点存在较多
2)大量工作表面局部最优解,对于模型而言已经足够好。

此外,正是因为深度学习中鞍点的大量存在,传统的牛顿法不适合,来寻优,因为牛顿法是通过直接寻找梯度为0的点,来寻优的,那么极有可能陷入鞍点。
(ps: 也正因为如此,牛顿法在Hessian为正定的时候,比梯度下降速度快,因为牛顿法直接找梯度为0 的点,而梯度下降则是一次一次的寻找当前点的最优梯度)

那么如何逃离,跳出鞍点呢?

1)利用Hessian矩阵ÿ

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值