凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法

[转自:http://blog.csdn.net/shanglianlm/article/details/45919679]

最近开始对凸优化(convex optimization)开始感兴趣,接下来我会写一系列关于凸优化(convex optimization)的内容。

    本文主要对ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法做一个简要的介绍:

    1. 对偶上升法(Dual Ascent) 和 对偶分解法(Dual Decomposition) 
      在介绍ADMM之前我们首先介绍两种优化算法:对偶上升法(Dual Ascent) 和 对偶分解法(Dual Decomposition)。 
      1.1 对偶上升法(Dual Ascent) 
      设有如下优化问题: 

      minf(x)   s.t.    Ax=b         (1)

      它的拉格朗日形式为: 
      L(x,λ)=f(x)+λT(Axb)        (2)

      对偶形式为: 
      g(λ)=infxL(x,λ)=f(ATλ)bTλ        (3)

      其中 f^* 是 f 的共轭函数。 
      对偶问题为: 
      max g(λ)       (4)

      对偶上升法的迭代更新为: 

      xk+1=argminxL(x,λk)             (5)    x-
      λk+1=λk+αk(Axk+1b)                (6)     

      其中 αk>0 是步长。

      1.2 对偶分解法(Dual Decomposition) 
      假设目标函数是可以分解的,即 

      f(x)=i=1Nfi(xi)        (7)

      因此,拉格朗日函数可以改写为: 
      L(x,λ)=i=1NLi(xi,λ)=i=1N(fi(xi)+λTAixi(1/N)λTb)        (8)

      所以它的迭代更新为: 
      xk+1i=argminxiLi(xi,λk)        (9)
      λk+1=λk+αk(Axk+1b)        (10)

    2. 增广拉格朗日(Augmented Lagrangians)和乘子法(Method of Multipliers) 
      接着我们引入增广拉格朗日(Augmented Lagrangians)和乘子法(Method of Multipliers)。 
      2.1 增广拉格朗日(Augmented Lagrangians)形式 
      为了增加对偶上升法的鲁棒性和放松函数f的强凸约束,我们引入增广拉格朗日(Augmented Lagrangians)形式: 

      Lρ(x,λ)=f(x)+λT(Axb)+(ρ/2)||Axb||22        (11)

      其中惩罚因子 ρ>0 。 
      与 (2) 式相比,(11) 式只是增加了一个惩罚项, 
      2.2 乘子法(Method of Multipliers) 
      对应于的迭代公式为: 
      xk+1=argminxLρ(x,λk)        (12)
      λk+1=λk+ρ(Axk+1b)        (13)

      我们称之为乘子法(Method of Multipliers)。

      将拉格朗日应用于对偶上升法可以极大地增加它的收敛属性,但是它要求一些代价。当f可以分解,而拉格朗日 Lρ 不能分解的,因此 (13) 式不能对每个 xi 并行最小化。这意味着乘子法不能被用来分解。

    3. ADMM(Alternating Direction Method of Multipliers) 
      如前文所述,ADMM是一个旨在将对偶上升法的可分解性和乘子法的上界收敛属性融合在一起的算法。 
      2.1 具体描述 
      设有如下优化问题: 

      min f(x)+g(z)  s.t.  Ax+Bz=c        (14)

      如同乘子法中一样,我们获得它的增广拉格朗日形式为: 
      Lρ(x,z,λ)=f(x)+g(z)+yT(Ax+Bzc)+(ρ/2)||Ax+Bzc||22        (15)

      那么它的迭代方式为: 
      xk+1=argminxLρ(x,zk,λk)        (16)
      zk+1=argminzLρ(xk+1,z,λk)        (17)
      λk+1=λk+ρ(Axk+1+Bzk+1c)        (18)

      其中增广拉格朗日参数 ρ>0

      2.2 优化条件和停止准则 
      原始残差: rk+1=Axk+1+Bzk+1c<ϵprimal  
      对偶残差: sk+1=ρATB(zk+1zk)<ϵdual

      2.3 收敛速度

      • 收敛到一个高的精度要求很多次迭代;
      • 但几十次迭代就可以达到一个合理的精度(类似于共轭梯度法(conjugate gradient method));
      • 可以和其他算法组合来产生一个高的精度。

    参考或延伸材料: 
    [1]Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers 
    [2] 凸优化讲义 
    [3] A Note on the Alternating Direction Method of Multipliers

    • 0
      点赞
    • 5
      收藏
      觉得还不错? 一键收藏
    • 0
      评论

    “相关推荐”对你有帮助么?

    • 非常没帮助
    • 没帮助
    • 一般
    • 有帮助
    • 非常有帮助
    提交
    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值