Levenberg–Marquardt algorithm

Levenberg-Marquardt又称莱文伯格-马夸特方法(Levenberg–Marquardt algorithm)能提供数非线性最小化(局部最小)的数值解。

此算法能借由执行时修改参数达到结合高斯-牛顿算法以及梯度下降法的优点,并对两者之不足作改善(比如高斯-牛顿算法之逆矩阵不存在或是初始值离局部极小值太远)。

为什么现在的神经网络训练很少用到Levenberg Marquardt算法?(来自知乎)

现在的神经网络Adam算法用的非常多,LM算法和Adam算法在性能上有什么区别?为什么在LM算法只在工程相关的文献用的比较多?

 

我看到的一些文献里几乎都是采用Levenberg-Marquardt算法训练NN。。。(土木领域)

 

Google Brain软件工程师

Levenberg-Marquardt算法是用来解决最小二乘(least square)问题的,但是当代神经网络里的很多常用的损失函数,比如cross entropy, 都不是二乘问题。

 

Levenberg Marquardt 是在矩阵的对角线上加一个weight,来解决least square 或者newton methods的时候矩阵不可逆问题的。LM针对的问题大多都是凸问题。

而神经网络是用来解决非凸问题的(也可以解决凸问题,但这就等同于拿大炮轰蚊子,还轰不准),Adam是一个optimizer,迭代优化权重的。

LM和Adam两者本身没有可比性,就像丰田车和本田发动机一样,不是一类东西。

转载于:https://www.cnblogs.com/jiangkejie/p/10170748.html

LM算法,全称为Levenberg-Marquard算法,它可用于解决非线性最小二乘问题,多用于曲线拟合等场合。 LM算法的实现并不算难,它的关键是用模型函数 f 对待估参数向量 p 在其邻域内做线性近似,忽略掉二阶以上的导数项,从而转化为线性最小二乘问题,它具有收敛速度快等优点。LM算法属于一种“信赖域法”——所谓的信赖域法,此处稍微解释一下:在最优化算法中,都是要求一个函数的极小值,每一步迭代中,都要求目标函数值是下降的,而信赖域法,顾名思义,就是从初始点开始,先假设一个可以信赖的最大位移 s ,然后在以当前点为中心,以 s 为半径的区域内,通过寻找目标函数的一个近似函数(二次的)的最优点,来求解得到真正的位移。在得到了位移之后,再计算目标函数值,如果其使目标函数值的下降满足了一定条件,那么就说明这个位移是可靠的,则继续按此规则迭代计算下去;如果其不能使目标函数值的下降满足一定的条件,则应减小信赖域的范围,再重新求解。 事实上,你从所有可以找到的资料里看到的LM算法的说明,都可以找到类似于“如果目标函数值增大,则调整某系数再继续求解;如果目标函数值减小,则调整某系数再继续求解”的迭代过程,这种过程与上面所说的信赖域法是非常相似的,所以说LM算法是一种信赖域法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值