[转自:http://blog.csdn.net/shanglianlm/article/details/45919679]
最近开始对凸优化(convex optimization)开始感兴趣,接下来我会写一系列关于凸优化(convex optimization)的内容。
本文主要对ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法做一个简要的介绍:
-
对偶上升法(Dual Ascent) 和 对偶分解法(Dual Decomposition)
在介绍ADMM之前我们首先介绍两种优化算法:对偶上升法(Dual Ascent) 和 对偶分解法(Dual Decomposition)。
1.1 对偶上升法(Dual Ascent)
设有如下优化问题:
minf(x) s.t. Ax=b (1)
它的拉格朗日形式为:
L(x,λ)=f(x)+λT(Ax−b) (2)
对偶形式为:
g(λ)=infxL(x,λ)=−f∗(−ATλ)−bTλ (3)
其中 f^* 是 f 的共轭函数。
对偶问题为:
max g(λ) (4)对偶上升法的迭代更新为:
xk+1=argminxL(x,λk) (5) x-最小化λk+1=λk+αk(Axk+1−b) (6) 对偶变量更新
其中 αk>0 是步长。1.2 对偶分解法(Dual Decomposition)
假设目标函数是可以分解的,即
f(x)=∑i=1Nfi(xi) (7)
因此,拉格朗日函数可以改写为:
L(x,λ)=∑i=1NLi(xi,λ)=∑i=1N(fi(xi)+λTAixi−(1/N)λTb) (8)
所以它的迭代更新为:
xk+1i=argminxiLi(xi,λk) (9)λk+1=λk+αk(Axk+1−b) (10) -
增广拉格朗日(Augmented Lagrangians)和乘子法(Method of Multipliers)
接着我们引入增广拉格朗日(Augmented Lagrangians)和乘子法(Method of Multipliers)。
2.1 增广拉格朗日(Augmented Lagrangians)形式
为了增加对偶上升法的鲁棒性和放松函数f的强凸约束,我们引入增广拉格朗日(Augmented Lagrangians)形式:
Lρ(x,λ)=f(x)+λT(Ax−b)+(ρ/2)||Ax−b||22 (11)
其中惩罚因子 ρ>0 。
与 (2) 式相比,(11) 式只是增加了一个惩罚项,
2.2 乘子法(Method of Multipliers)
对应于的迭代公式为:
xk+1=argminxLρ(x,λk) (12)λk+1=λk+ρ(Axk+1−b) (13)
我们称之为乘子法(Method of Multipliers)。将拉格朗日应用于对偶上升法可以极大地增加它的收敛属性,但是它要求一些代价。当f可以分解,而拉格朗日 Lρ 不能分解的,因此 (13) 式不能对每个 xi 并行最小化。这意味着乘子法不能被用来分解。
-
ADMM(Alternating Direction Method of Multipliers)
如前文所述,ADMM是一个旨在将对偶上升法的可分解性和乘子法的上界收敛属性融合在一起的算法。
2.1 具体描述
设有如下优化问题:
min f(x)+g(z) s.t. Ax+Bz=c (14)
如同乘子法中一样,我们获得它的增广拉格朗日形式为:
Lρ(x,z,λ)=f(x)+g(z)+yT(Ax+Bz−c)+(ρ/2)||Ax+Bz−c||22 (15)
那么它的迭代方式为:
xk+1=argminxLρ(x,zk,λk) (16)zk+1=argminzLρ(xk+1,z,λk) (17)λk+1=λk+ρ(Axk+1+Bzk+1−c) (18)
其中增广拉格朗日参数 ρ>0 。2.2 优化条件和停止准则
原始残差: rk+1=Axk+1+Bzk+1−c<ϵprimal
对偶残差: sk+1=ρATB(zk+1−zk)<ϵdual2.3 收敛速度
- 收敛到一个高的精度要求很多次迭代;
- 但几十次迭代就可以达到一个合理的精度(类似于共轭梯度法(conjugate gradient method));
- 可以和其他算法组合来产生一个高的精度。
参考或延伸材料:
[1]Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers
[2] 凸优化讲义
[3] A Note on the Alternating Direction Method of Multipliers