【源码】用随机平均梯度最小化有限和

我们分析了随机平均梯度(SAG)方法,以优化有限数量的光滑凸函数之和。

We analyze the stochastic average gradient(SAG) method for optimizing the sum of a finite number of smooth convexfunctions.

与随机梯度(SG)方法一样,SAG方法的迭代成本与总和中的项数多少无关。

Like stochastic gradient (SG) methods, theSAG method’s iteration cost is independent of the number of terms in the sum.

然而,通过引入以前存储的梯度值,SAG方法比黑盒SG方法实现了更快的收敛速度。

However, by incorporating a memory ofprevious gradient values the SAG method achieves a faster convergence rate thanblack-box SG methods.

这里写图片描述

进一步地,就梯度评价的数量而言,在很多情况下新方法的收敛速度也比黑盒的确定性梯度法更快。

Further, in many cases the convergence rateof the new method is also faster than black-box deterministic gradient methods,in terms of the number of gradient evaluations.

与本文相关的一个网站供参考:

https://www.cs.ubc.ca/~schmidtm/Software/SAG.html

下载英文原文及相关源码:

http://page2.dfpan.com/fs/dlc4j2d21529a16b7a1/

更多精彩文章请关注微信号:这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值