ADMM随堂笔记(一),当时没有写,后来不想写了。
目前是刚接触,只能理解到此,以后深入了再回来更正。
3.1ADMM算法
ADMM是以一种分解思想去解决问题的方法。
主要形式是:
( 3.1 ) (3.1) (3.1)
参数 x ∈ R n x \in R^n x∈Rn,参数 z ∈ R m z \in R^m z∈Rm, A ∈ R p × n A \in R^{p \times n} A∈Rp×n, B ∈ R p × m B \in R^{p \times m} B∈Rp×m, c ∈ R p , c \in R^p, c∈Rp,f 和 和 和g 是 凸 的 。 这 就 相 当 于 把 原 先 的 优 化 问 题 的 参 数 是凸的。这就相当于把原先的优化问题的参数 是凸的。这就相当于把原先的优化问题的参数x 分 成 了 两 部 分 分成了两部分 分成了两部分x 和 和 和z$,同样目标函数也一样分成 f f f和 g g g 。 这样分开代表着x和z的完全独立
这样,我们的 ( 3.1 ) (3.1) (3.1)可以写成下面这种形式:
增广拉格朗日形式:
和一般拉格朗日相比,末尾多了一个增广项,这个其实是很好理解的。如果我们的模型达到最优,那么 A x + B z − c = 0 Ax+Bz-c=0 Ax+Bz−c=0,这意味着增广项为0.
ADMM迭代:
ρ > 0 \rho>0 ρ>0。 ( 3.1