minimax & report

Accelerated Proximal Alternating Gradient-Descent-Ascent for Nonconvex Minimax Machine Learning

摘要:此文开发了一个单循环和快速AltGDA型算法,利用近端梯度更新和动量加速来解决

正则化非凸极大极小优化问题

介绍:

其他加速GDA型算法涉及complex nested-loop structures还需要function smoothing with many fine-tuned hyper-parameters(使用许多微调的超参数进行函数平滑),这是不实用的。引出主角:alternating-GDA (AltGDA) algorithm

GDA是这么更新的:

而AltGDA再更新y时用的是更新后的x,好处是:收敛的更快

 alternating-GDA (AltGDA) algorithm计算复杂度高,本文结合了一下动量

我们的算法把适用在非凸极小化问题中的heavy-ball and Nesterov’s momentum技术拓展到非凸极小极大优化。

As the two proximal gradient steps of proximal-AltGDA are used to solve two different types of optimization problems, namely, the

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值