随机方差缩减方法 - SAGA 与 非凸近端变体 ProxSAGA: proximal SAGA

近期的论文与实验提到了 SAGA优化方法 , 这里记录下来。


SGD (Stochastic Gradient Descent ) 随机梯度下降算法

对于目标函数:

这里写图片描述

目标函数优化步骤:

1.随机旋转索引j,即函数fj(x);

2.更新参数x,采用sgd公式为:

这里写图片描述

 

SAGA(STOCHASTIC VARIANCE REDUCTION METHODS) 随机方差缩减方法

方法出自论文:

Aaron Defazio, Francis Bach, Simon Lacoste-Julien: SAGA: A Fast Incremental Gradient Method With Support for Non-Strongly Convex Composite Objectives.

         具体可参考:https://sklearn.apachecn.org/docs/master/2.html?h=saga

         

 

目标函数优化步骤:

1.随机旋转索引j,即函数fj(x);

2.对于上述目标函数,采用SAGA参数更新公式为:

这里写图片描述

SAGA代码:https://github.com/adefazio/point-saga

相比SGD,SAGA有完全不同的收敛性.对于强凸的问题,SAGA可以线性收敛,即计算量为O(log(1/k)),而在现有的随机方法中,例如SGD需要计算量为O(1/k),都未达到线性收敛.

这里写图片描述

图中Incremetal Gradient为SAGA方法.由图可知,在训练过程中,采用SAGA梯度下降法可以使模型快速收敛.

 

ProxSAGA: proximal SAGA

https://github.com/fabianp/ProxASAGA

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值