运筹系列7:大规模线性规划的Benders/DW分解

Benders/DW分解算法常常用于具有分块结构的大规模线性规划问题中。
因为在求解矩阵中,一个约束条件对应一行,因此添加约束条件的方法自然叫做行生成算法(Benders分解)。相对应的,添加变量的方法就叫做列生成算法(DW分解)。

1. Benders分解

1.1 问题描述

Benders分解算法,常常用于有一部分约束条件有明显的”对角线分块“结构,可以拆下来求解的情形:
在这里插入图片描述

Benders求解的基本思路是:使用子问题(primal problem)来寻找合适的约束不断添加到松弛主问题(relaxed master problem)中,具体可以参考论文,这里做一下简单的概述:
假设Benders分解问题的标准型为:
max ⁡ w b + v d \max wb+vd maxwb+vd
s.t. w A + v B ≤ c wA+vB ≤ c wA+vBc
w , v ≥ 0 w,v\ge 0 w,v0 w w w为主问题变量,对偶变量为子问题变量。在分块结构中,对偶问题也是分块的,变量可以拆分开来求解。

1.2 主问题

原问题等价于
max ⁡ w ≥ 0 { w b + max ⁡ v : v B ≤ c − w A , v ≥ 0 v d } \max_{w\ge0}\{wb+\max_{v:vB\le c-wA,v\ge0}vd\} maxw0{wb+maxv:vBcwA,v0vd}

等价于
max ⁡ w ≥ 0 { w b + min ⁡ x : B x ≥ d , x ≥ 0 ( c − w A ) x } \max_{w\ge 0}\{wb+\min_{x:Bx\ge d,x\ge 0}(c-wA)x\} maxw0{wb+minx:Bxd,x0(cwA)x}

内部的min问题是个线性规划问题,枚举可行域{ x : B x ≥ d , x ≥ 0 x : Bx\ge d,x\ge 0 x:Bxd,x0}的极点便可以求解了。我们逐步找新的极点作为约束添加进松弛主问题(RMP):

max z z z
s.t. z ≤ w b + ( c − w A ) x i z\le wb+(c-wA)x_i zwb+(cwA)xi
w ≥ 0 w\ge 0 w0

或者换一个理解方式:每次移动到新的极点时,必须是对原问题的目标函数有改进:
max w b wb wb
s.t. ( c − w A ) x i ≥ 0 (c-wA)x_i\ge 0 (cwA)xi0
w ≥ 0 w\ge 0 w0

两者是等价的。

1.3 子问题

将求出来的 w w w带入下式(DSP)求解 x x x
min ⁡ ( c − w A ) x + w b \min (c-wA)x+wb min(cwA)x+wb
s.t. B x ≥ d Bx \ge d Bxd
x ≥ 0 x\ge 0 x0
求出来的 x x x是原问题的一个极点,将其添加到松弛主问题上继续求解。
在Benders分解中,松弛主问题和对偶子问题分别可以给出原问题的上界UB和下界LB,进行迭代直至LB = UB。

2. DW分解

2.1 问题描述

DW分解和Benders分解步骤非常相似,完全是对偶形式。具体可以参考这篇https://imada.sdu.dk/u/jbj/DM209/Notes-DW-CG.pdf
Benders分解的图转过来就是DW分解的情形:
在这里插入图片描述
Benders分解每次求出来的极点用于给主问题添加有效约束,而DW分解每次求出来的极点用于给主问题添加基变量。DW问题模型是:
min ⁡ c x \min cx mincx
s.t. A x ≤ b Ax \le b Axb(主问题约束,包含connecting constraints)
D x ≤ d Dx \le d Dxd(包含independent constraints)
x ≥ 0 x\ge 0 x0

2.2 主问题

回顾一下Benders的松弛主问题:
max z z z
s.t. z − ( b − A x i ) w ≤ c x i , i = 1... m z-(b-Ax_i)w\le cx_i, i=1...m z(bAxi)wcxi,i=1...m
w ≥ 0 w\ge 0 w0

求对偶即可得DW分解的松弛主问题:
min ⁡ c Σ x i u i \min c\Sigma x_iu_i mincΣxiui
s.t. Σ u i = 1 \Sigma u_i=1 Σui=1
Σ ( b − A x i ) u i ≥ 0 \Sigma (b-Ax_i)u_i\ge 0 Σ(bAxi)ui0
u i ≥ 0 u_i\ge0 ui0

2.3 子问题

构造定价子问题(pricing sub problem, PSP)求解新的极点 x x x,一般使用单纯形法的判别规则,令 u i = arg ⁡ max ⁡ i u u_i=\arg \max_i u ui=argmaxiu,然后求 min ⁡ j ( B − 1 b ) i j \min_j (B^{-1}b)_{ij} minj(B1b)ij,对应对应新的基变量 u j u_j uj,将其添加到松弛主问题上继续求解。注意单纯型法本身就是一种列生成的方法。

3. 例子

举一个例子:
在这里插入图片描述

前两个约束比较复杂,而后四个约束有明显的”对角线分块“结构,因此将前两个约束和后四个约束分开,转化为对偶问题用Benders分解求解,主问题为下式:
在这里插入图片描述

3.1 第1轮迭代

x = ( 0 , 0 , 0 , 0 ) x=(0,0,0,0) x=(0,0,0,0)是复杂问题(前两个约束)的一个可行解,求解主问题
在这里插入图片描述
得到 w = ( 0 , 0 ) w=(0,0) w=(0,0) U B = 0 UB=0 UB=0,求解子问题:
min ⁡ − 2 x 1 − x 2 − x 3 + x 4 \min -2x_1-x_2-x_3+x_4 min2x1x2x3+x4
s.t.
在这里插入图片描述
分块求解( x 1 , x 2 x_1,x_2 x1,x2)和( x 3 , x 4 x_3,x_4 x3,x4),可以得到 x = ( 2 , 1.5 , 3 , 0 ) x=(2,1.5,3,0) x=(2,1.5,3,0),最优值为 L B = − 8.5 LB=-8.5 LB=8.5

3.2 第2轮迭代

使用新的 x x x添加一条约束,得到新的主问题:
在这里插入图片描述
得到 w = ( − 1.7 , 0 ) w=(-1.7,0) w=(1.7,0),最优值为 U B = − 3.4 UB=-3.4 UB=3.4,求解子问题
min ⁡ − 3.4 − 0.3 x 1 − x 2 − 2.7 x 3 + x 4 \min -3.4-0.3x_1-x_2-2.7x_3+x_4 min3.40.3x1x22.7x3+x4
s.t.
在这里插入图片描述
得到 x = ( 0 , 2.5 , 0 , 0 ) x=(0,2.5,0,0) x=(0,2.5,0,0),最优值为 L B = − 5.9 LB=-5.9 LB=5.9

3.3 第3轮迭代

使用新的 x x x添加一条约束,得到新的主问题:
在这里插入图片描述
得到 w = ( − 1.2 , 0 ) w=(-1.2,0) w=(1.2,0),最优值为 U B = − 4.9 UB=-4.9 UB=4.9,求解子问题
min ⁡ − 2.4 − 0.8 x 1 − x 2 + 0.2 x 3 + x 4 \min -2.4-0.8x_1-x_2+0.2x_3+x_4 min2.40.8x1x2+0.2x3+x4
s.t.
在这里插入图片描述
得到 x = ( 2 , 1.5 , 0 , 0 ) x=(2,1.5,0,0) x=(2,1.5,0,0),最优值为 L B = − 5.5 LB=-5.5 LB=5.5
不断迭代下去即可,直到LB=UB

3.4 参考代码(julia)

using JuMP,GLPK
c = [-2,-1,-1,1]
bm = [2,3] # 主问题变量
b = [2,5,2,6] # 子问题变量
Am = [[1,0,1,0],[1,1,0,2]]
A = [[1,0,0,0],[1,2,0,0],[0,0,-1,1],[0,0,2,1]]

# 松弛主问题为前两个变量,主问题给出max的上界
rmp = Model(GLPK.Optimizer)
@variable(rmp,w[1:length(bm)]<=0)
@objective(rmp, Max, sum(bm.*w))
optimize!(rmp)
w_val = JuMP.value.(w)
ub = objective_value(rmp)

# 子问题为消去w1和w2后的对偶问题,给出的是下界
m = Model(GLPK.Optimizer)
@variable(m,x[1:length(b)]>=0)
@objective(m, Min, ub+sum((c.-sum(w_val.*Am)).*x))
@constraint(m, cons[i = 1:length(b)], sum(A[i].*x) <= b[i])
optimize!(m)
x_val = JuMP.value.(x)
lb = objective_value(m)
@info lb,ub

# 迭代直至ub=lb
while ub>lb
    # 固定子问题变量,更新主问题变量。
    # 要求目标函数不变差,因此松弛主问题中添加一个新的约束条件
    @constraint(rmp, sum(x_val.*(c.-sum(w.*Am)))>=0)
    optimize!(rmp)
    w_val = JuMP.value.(w)
    ub = objective_value(rmp)

    # 固定主问题变量,更新子问题变量。
    @objective(m, Min, ub+sum((c.-sum(w_val.*Am)).*x))
    optimize!(m)
    x_val = JuMP.value.(x)
    lb = objective_value(m)
    @info lb,ub
end
@info x_val

输出结果如下:
在这里插入图片描述

  • 25
    点赞
  • 154
    收藏
    觉得还不错? 一键收藏
  • 23
    评论
Benders分解算法是一种常用的优化算法,适用于解决具有大规模决策变量和约束条件的复杂问题。该算法通过将问题分解为主问题和子问题来求解,主要用于解决线性和混合整数优化问题。 Benders分解算法的核心思想是将原问题分解为一个主问题和多个子问题。主问题通常是一个线性规划问题,其中包含决策变量的主要部分,而子问题则是一组约束问题,包含决策变量的次要部分。主问题和子问题通过一组双向约束进行交互,并通过迭代迭代的方式逐步优化解决方案。 在每一次迭代中,主问题首先被求解,得到当前的主问题解,然后将这个解传递给子问题。子问题则在主问题解的基础上进行求解,并计算出子问题对主问题解的改进量,即称为割平面。割平面是一种附加的线性约束条件,用于修正主问题解从而得到更优解。 Benders分解算法的优点是可以将原有的复杂问题分解为更小、更易处理的子问题,对于大规模问题的求解具有高效性和可行性。同时,该算法还可以通过增加割平面的方式提高求解结果的精确度。 Benders分解算法在实际应用中有广泛的应用。例如,在供应链中,可以使用Benders分解算法解决资源配置问题和需求满足问题;在网络规划中,可以使用该算法解决最优路径选择问题;在能源管理中,可以使用该算法解决能源调度和能源优化问题。 总之,Benders分解算法是一种高效、可行的优化算法,适用于解决具有大规模决策变量和约束条件的复杂问题。它通过将问题分解为主问题和子问题,并通过割平面的方式逐步优化解决方案,提供了一种有效的求解方法。
评论 23
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值