ADMM算法理论与应用

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/oBanTianYun/article/details/72590188

ADMM算法理论与应用


前言

交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)是一种解决可分解凸优化问题的简单方法,尤其在解决大规模问题上卓有成效,利用ADMM算法可以将原问题的目标函数等价的分解成若干个可求解的子问题,然后并行求解每一个子问题,最后协调子问题的解得到原问题的全局解。ADMM 最早分别由 Glowinski & Marrocco 及 Gabay & Mercier 于 1975 年和 1976 年提出,并被 Boyd 等人于 2011 年重新综述并证明其适用于大规模分布式优化问题。由于 ADMM 的提出早于大规模分布式计算系统和大规模优化问题的出现,所以在 2011 年以前,这种方法并不广为人知。

对偶上升方法

考虑等式约束的最优化问题如下

minxf(x)
st.Ax=b
其中xRn,ARm×n,f:RnR是凸函数
原问题的拉格朗日函数为:
L(x,y)=f(x)+yT(Axb)
那么其对偶函数为:
g(y)=infxL(x,y)=f(ATy)bTy
其中y是拉格朗日乘子,也是对偶变量,ff共轭函数。
假设满足强对偶性,则原问题和对偶问题的最优值相等。我们设原问题最优解为x,对偶问题最优解为y,则
x=argminxL(x,y)
在对偶上升方法中,对偶问题是通过梯度上升方法来解,因此对偶上升迭代更新为:
xk+1=argminxL(x,yk)
yk+1=yk+αk(Axk+1b)
其中αk>0,是梯度上升的步长。

对偶分解性

对偶上升方法中在满足强对偶性条件下,通过梯度上升来逐步调整对偶变量,再通过对偶变量来求解原问题最优解,这样的好处是在有些情况下可以使算法可分解,假设目标函数是可分解的,即,

f(x)=i=1Nfi(xi)
其中x=(x1,x2,,xN),xiRni,划分矩阵A
A=[A1,A2,,AN]
所以Ax=i=1NAixi,则拉格函数重写成
L(x,y)=i=1NLi(xi,y)=i=1N(fi(xi)+yTAixi(1N)yTb)
对偶上升的迭代更新:
xik+1=argminxiLi(xi,yk)
yk+1=yk+αk(Axk+1b)

增广拉格朗日(乘子法)

为了增加对偶上升方法的鲁棒性和放松目标强凸的要求,引入了增广拉格朗日,增广拉格朗日,形式如下:

Lρ(x,y)=f(x)+yT(Axb)+ρ2Axb22
其中ρ>0,是惩罚参数。
增广拉格朗日相当于在拉格朗日加了一个强凸的惩罚项使得原约束问题变成如下形式
minxf(x)+ρ2Axb22
s.t.Ax=b
对偶上升迭代更新:
xk+1=argminxLρ(x,yk)
yk+1=yk+ρ(Axk+1b)
这就是所谓的乘子法,从迭代形式上看,有两点和对偶上升方法不一样,第一是xk+1更新使用增广拉格朗日,第二是更新的步长用惩罚参数ρ代替了αk。乘子法虽然可以比对偶上升方法在更一般的条件下收敛,但是增加了二次惩罚项,使得原问题失去可分解性,因而引入了ADMM算法。

交替方向乘子法(ADMM)

假设有如下优化问题:

minxf(x)+g(z)
s.t.Ax+Bz=c
其中xRn,zRm,ARp×n,BRp×m,cRp
其增广拉格朗日函数如下:
Lρ(x,z,y)=f(x)+g(z)+yT(Ax+Bzc)+ρ2Ax+Bzc22
ADMM的更新迭代形式如下:
xk+1=argminxLρ(x,yk,zk)
zk+1=argminzLρ(xk+1,z,yk)
yk+1=yk+ρ(Axk+1+Bzk+1c)
其中ρ>0,以上就是最原始的ADMM算法迭代形式

全局变量一致性优化(Global Variable Consensus Optimization)

接下来讨论如何将其应用到机器学习算法分布式计算中,但在这之前我们先讨论一个比较广义的优化问题如下:

minxi=1Nfi(xi)
s.t.xiz=0,i=0,1,,N
以上问题形式就是全局一致性问题,xi局部变量,z是全局一致变量。从限制约束条件来看,每一个局部变量需要保持一致。
其增广拉格朗日函数为:
Lρ(x1,x2,,xN,z,y)=i=1Nfi(xi)+yiT(xiz)+ρ2xiz22
ADMM迭代更新形式:
xik+1=argminxfi(xi)+yiTk(xizk)+ρ2xizk22
zk+1=1Ni=1N(xik+1+1ρyik)
yik+1=yik+ρ(xik+1zk+1)

我们可以更进一步将上述问题推广更广义的优化问题,带正则的全局一致性优化问题,具体问题如下:
minxi=1Nfi(xi)+g(z)
s.t.xiz=0,i=0,1,,N
其ADMM迭代更新形式如下:
xik+1=argminx(fi(xi)+yiTk(xizk)+ρ2xizk22)
zk+1=argminz(g(z)+i=1N(yiTk+ρ2xik+1z22))
yik+1=yik+ρ(xik+1zik+1)

ADMM算法的应用

以上讨论了一些的理论的东西,接下来就尝试一下如何去应用ADMM算法去解决一些机器学习问题。实际上大多数分布式机器学习问题可以表达成全局一致性优化问题:

minxi=1Nfi(xi)+g(z)
s.t.xiz=0,i=0,1,,N,
fi(xi)表示划分到每一个节点上的目函数,xi表示局部模型参数,z表示全局一致性变量。我们把整个数据集划分到每一节点,各节点独立并行训练,通过迭代更新,最终收敛到一个一致的全局解。

Lasso问题

具体问题形式如下:

minx12Axb22+λx1
其中,ARm×n,bRm.
更换成全局一致性优化问题:
minxii=1N12Axb2+λz1
s.t.xiz=0,i=0,1,,N
ADMM迭代更新形式如下:
xik+1=argminxi(12Aixibi2+yiTk(xizk)+ρ2xizk22)
zk+1=argminz(λz1+i=1N(yiTkz+ρ2xik+1z22))
yik+1=yik+ρ(xik+1zk+1)

对于xk+1的更新,右边括号内的函数对x求可导得(这里可以有更高效的算法求解):
AiT(Aixibi)+yik+ρ(xizk)=0
即可得:
xik+1=(AiTAi+ρI)1(AiTbi+ρzkyik)
对于z的更新如下:
zk+1=argminz(λz1+ρN2z1ρNi=1N(ρxik+1+yik)22)
因此z的更新可以使用softthreshold方法如下所示:
zk+1=Sλ/ρN(1ρNi=1N(ρxik+1+yik))
其中
Sκ(a)={aκ, a>κ 0, a∣≤κa+κ,a<κ

没有更多推荐了,返回首页