Lecture11: (增强)拉格朗日松弛技术

目录

1 理论背景

 2 数学分析

3 LR计算案例

3.1 分解

 3.2 算法

4 ALR计算案例

4.1 主要思想

4.2 ADMM


当你的问题中包含复杂约束时,你可能需要该方法。

本节目标:

  • 阐述拉格朗日松弛、增强拉格朗日松弛和交替方向乘子技术(Explain the functioning of Lagrangian relaxation (LR), augmented Lagrangian relaxation (ALR), and alternating direction method of multipliers (ADMM))
  • 实现一个示例性案例

    应用于处理复杂约束的分解技术有以下几个:

  1. 拉格朗日松弛:标准的或经典的拉格朗日松弛,或者对偶分解;为什么是对偶分解呢?因为我们迭代的是对偶变量,而在benders分解中,我们迭代的是原始变量。
  2. 增强拉格朗日松弛:辅助问题法则(Auxiliary problem principle (APP))、交替方向乘子方法(Alternating direction method of multipliers (ADMM))
  3. 丹尼斯沃夫分解(DW分解)

Andrianesis, P., Caramanis, M. C., & Hogan, W. W. (2020). Computation of Convex Hull Prices in Electricity Markets with Non-Convexities using Dantzig-Wolfe Decomposition. arXiv preprint arXiv:2012.13331.

复杂约束一旦被放松,我们便可以将原问题分解为基于代理的子问题,或分布式问题。

  1. Conejo, A. J., Castillo, E., Minguez, R., & Garcia-Bertrand, R. (2006). Decomposition techniques in mathematical programming: engineering and science applications. Springer Science & Business Media.
  2. Boyd, S., Parikh, N., & Chu, E. (2011). Distributed optimization and statistical learning via the alternating direction method of multipliers. Now Publishers Inc.

1 理论背景

  • LR技术首先用来处理 一阶导数连续且包含连续变量 的优化问题;后来被成功应用到 包含二进制变量 的优化问题。
  • LR技术在处理复杂约束数目较少的问题时,是有效率的;作为一种启发式方法,它在处理包含二进制变量的模型也是OK的。
  • LR技术在90年代,已经被拓展用来处理 unit commitment problems (complicating constrains are balance constraints and ramping constraints).
  • 除了凸性,原问题的目标函数应该是平滑的,即必须一阶可微,也就意味着必须有一阶导数连续。如果目标函数是二次的,且保证凸性,LR可以保证得到全局最优解。
  • 如果目标函数是线性的,LR程序不能保证收敛。对于线性目标函数,一个可选的方案是增强拉格朗日松弛技术。

 2 数学分析

 对应的拉格朗日对偶函数为:

 显然等价问题是不可分解的;我们可以通过固定对偶变量来松弛等价问题:

 LR技术是一种系统的迭代方法,它在每一次迭代中不断更新对偶变量。可用的更新对偶变量的技术有:

  1. 次梯度方法 Subgradient method
  2. 割平面方法 Cutting plane method
  3. 捆绑方法 Bundle method
  4. 可信域方法 Trust region method

Redondo, N. J., & Conejo, A. J. (1999). Short-term hydro-thermal coordination by Lagrangian relaxation: solution of the dual problem. IEEE transactions on power systems14(1), 89-95.

3 LR计算案例

3.1 分解

 3.2 算法

4 ALR计算案例

4.1 主要思想

ALR既可以像LR一样处理二次目标函数;也可以处理线性目标函数。

ALR和LR的主要区别在于:在子问题中添加一个惩罚项;如果是不等式,我们不能直接使用ADMM,我们需要先加入辅助变量使其变成等式,之后在使用ADMM。

ALR的主要思想是:确保最佳点不改变,找到线性函数对应的二次函数。如果原问题是凸的,这种转化等价的。

Is the problem above decomposed for given \bar{\lambda} ? No, due to product of and in the penalty term!

可选的处理策略是:

  1. Auxiliary problem principle (APP)
  2. Alternating direction method of multipliers (ADMM)

这里我们讨论交替方向乘子方法

4.2 ADMM

交替的意思是,交替的固定 x 和 y.

ADMM directly fixes each variable to its value obtained in the previous iteration, and decomposes the ALR to subproblems.

收敛性证明:

  1. For convex problems, under some certain assumptions, there is a proof of convergence
    to global optimal point. There is also an analytical investigation of the convergence rate.
  2. For non‐convex problems, under some certain assumptions, there is a proof of convergence to local (stationary) optimal point.
  1. Boyd, S., Parikh, N., & Chu, E. (2011). Distributed optimization and statistical learning via the alternating direction method of multipliers. Now Publishers Inc.
  2. Hong, M., & Luo, Z. Q. (2017). On the linear convergence of the alternating direction method of multipliers. Mathematical Programming162(1-2), 165-199.
  3. Wang, Y., Yin, W., & Zeng, J. (2019). Global convergence of ADMM in nonconvex nonsmooth optimization. Journal of Scientific Computing78(1), 29-63.
  4. Hong, M., Luo, Z. Q., & Razaviyayn, M. (2016). Convergence analysis of alternating direction method of multipliers for a family of nonconvex problems. SIAM Journal on Optimization26(1), 337-364.
  5. Sun, K., & Sun, X. A. (2019). A two-level distributed algorithm for nonconvex constrained optimization. arXiv preprint arXiv:1902.07654.

回到我们的问题,ADMM的工作原理为:

 

 

算法:

in each iteration, solve each subproblem and then update dual variable untill convergnce, i.e., when the primal residual (i.e., the value of penalty) is negligable, and therefore the value of dual variable does not change anymore.

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

运筹码仓

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值