MIP精确算法的关键——确定界

目录

1.界是什么?

2. 如何更新上下界

2.1 以分支定界为框架的一系列算法

 2.2 benders分解


MIP精确算法包含,分支定界、分支切割、分支定价还有benders分解等等。前者是以分支定界为框架的一类算法;后者是以分解为框架的一类算法。甚至还包括拉格朗日松弛等等,我觉得除了算法细则需要搞清楚外,更关键的是弄懂界。

因为拉格朗日算法目前不熟,所以下面我具体总结分支定界的一类算法和benders分解算法界的确定原则。

本篇以min问题为例。

1.界是什么?

界包含上界UB,和下界LB。

我们做启发式算法的时候,有时候会被审稿专家提一个问题,就是你这个算法质量没有保证,所以一般我们会提供一个下界作为参考。比如:调度问题中,不相关并行机问题,我们松弛为相同的机器,以工件j在所有机器的最小加工时间min_{i\in I}\left \{ p_{ij} \right \}为工件的加工时间\bar{p},然后叠加就可以得到一个总完工时间,这个就可以作为原问题的下界。

在精确算法中,我们会得到一个UB,和一个LB,不断提升LB,降低UB。当UB=LB的时候,我们就得到了最优解。换句话说,界和终止条件有关。

(1)UB是整数可行解,但我们降低UB的时候,就是找到更好可行解更新。

(2)LB是松弛解,像以分支定界为框架的一系列算法中,主要采用的是线性松弛解,因为约束减少,因此解的质量至少不差于(好于)原问题的解,原问题是min,不差于(好于)就是更小,即LB。

而拉格朗日松弛,采用的是不同于线性松弛的松弛方法,得到的LB更好,通常拉格朗日松弛的解≥线性松弛的解。

2. 如何更新上下界

当我们了解UB和LB了之后,下一个问题是:

(1)用什么来更新?以及

(2)更新的过程怎么保证不丢失信息,确保更新UB和LB之后得到的是精确最优解呢?

2.1 以分支定界为框架的一系列算法

先来说以分支定界为框架的一系列算法:

它的本质是隐枚举,通过剪支的操作来避免全枚举。剪支分为:不可行剪支(线性松弛后可行域变大了还不可行,那可行域是子集的原问题必定也不可行)、最优性剪支(已经是整数解了,没必要分支了)、和定界剪支(因为线性松弛后解更小,当线性松弛后解超过了UB,那肯定不松弛解更超过UB,也就是不会产生更好的解了)。

可以看到定界剪支与界(准确的说是LB)相关,以及我们在求解过程中需要不断更新,和比较UB和LB,因此界很重要。

编程的时候怎么实现呢?

我们需要定义一系列的界,包含全局UB&LB(上面说的都是这个);以及当前节点的UB&LB(为了比较和替换,也是为了更清晰的展示每个点的上下界信息);以及储存在每次迭代过程中UB&LB(比如我们想查看上下界怎么变化,就需要用到它,智能算法中显示全局解随迭代次数变化的迭代曲线一样的意思)。

总结一下,需要用到global_UB,global_LB;node.local_LB,node.local_UB,以及Global_UB_change,Global_LB_change。

后续我们需要对以上变量进行更新,具体的做法是:

(1)首先肯定是要预定义:

global_UB=正无穷,global_LB=原问题线性松弛的解;

node.local_LB=global_LB,node.local_UB=正无穷;

Global_UB_change=[],Global_LB_change = [].

(2)求解每一个叶子节点current_node,会得到它的解current_node.model.ObjVal。

(3)假如是整数解,且该解比之前可行解都好,即current_node.model.ObjVal<global_UB,那么用current_node.model.ObjVal替换global_UB;

假如不是整数解,即小数解,不需要进行任何操作。

# update the LB and UB
if (is_integer == True):
   feasible_sol_cnt += 1  # 整数可行解的计数
   # For integer solution node, update the LB and UB
   current_node.is_integer = True
   current_node.local_LB = current_node.model.ObjVal
   current_node.local_UB = current_node.model.ObjVal
   # if the solution is integer, update the UB of global and update the incumbent
   if (current_node.local_UB < global_UB):  # 整数可行解更优,更min,则更新上界,同时更新当前最好的整数可行解incumbent_node
       global_UB = current_node.local_UB
       incumbent_node = Node.deepcopy_node(current_node)

if (is_integer == False):
   # For integer solution node, update the LB and UB also
   current_node.is_integer = False
   current_node.local_UB = global_UB
   current_node.local_LB = current_node.model.ObjVal

(可以看到每个点current_node的下上界信息也进行了更新,是为了展示各个节点的上下界情况。整数节点,上下界相等,都为current_node.model.ObjVal;非整数节点,上界为global_UB,下界为本身(因为是松弛解))。

(4)因为我们在分支的时候,把所有的子节点(一系列模型)放在队列Queue中 ,因此我们探测这些叶子节点的信息,来更新全局下界(是所有叶子节点解的最小值)>>>>(是保证不缺失信息的关键)。

注意:上界UB可以用更好的可行解信息来代替,但是下界LB不能,下界LB要全部探测所有节点方可确定。

# update the global LB, explore all the leaf nodes
temp_global_LB = np.inf
for node in Queue:
    node.model.optimize()
    if (node.model.status == 2):
        if (node.model.ObjVal <= temp_global_LB and node.model.ObjVal <= global_UB):
            temp_global_LB = node.model.ObjVal  # 下界是剩余节点集合Q中节点对应的LP中obj的最小值

(5)更新全局LB和UB,更新界的迭代信息列表Global_UB_change,Global_LB_change

global_LB = temp_global_LB
Global_UB_change.append(global_UB)
Global_LB_change.append(global_LB)

可以看到,全局UB直接更新(出现好的就更新,类似于我们说的贪婪更新),而下界LB是探测所有。 然后把每次迭代过程中的全局UB和LB放在界的迭代列表Global_UB_change,Global_LB_change中,因为我们在先前已经比较过了,因此LB一定是增大(因为我们不断添加界,相当于可行域变小,所以即使探测所有节点,解一定是变大的,不会出现更小的情况),UB一定是减小的。

(6)当所有节点都探测完毕,别忘了再更新下全局上下界和界的迭代信息列表。

# all the nodes are explored, update the LB and UB
incumbent_node.model.optimize()
global_UB = incumbent_node.model.ObjVal
global_LB = global_UB
Gap = round(100 * (global_UB - global_LB) / global_LB, 2)
Global_UB_change.append(global_UB)
Global_LB_change.append(global_LB)

我们知道分支切割,和分支定价是在分支定界的基础上进行的,界的更新过程差不多。区别是分支数的样子。

 2.2 benders分解

benders分解的初衷是因为原模型中含有两类变量,复杂变量和简单变量。它们之间具有耦合关系,所以我们想的是把它们拆开,复杂变量和简单变量分开,分成两个问题/模型,即我们说的主问题和子问题。但分开后的两个模型之间要建立一定的联系,才能和原模型等价。具体的做法是加约束(可行割和最优割),即缺失的信息。也就是说原模型等价于主问题+一系列的割。这些割是不断添加的,因此benders分解被也称为行生成。

所以我们可以看到,benders分解的关键在于,如何分解为主问题和子问题。以及界是如何更新的。

本篇我们主要谈界的更新,benders算法中界主要和算法终止条件有关。以下谈具体思路。

假设复杂变量是y,简单变量是x。

(1)则主问题MP是只看y,无视/忽略x(x相关的信息,即x对y的影响反映在不断添加的割上),目标函数是min(fy+q),其中q是原始模型中目标函数min(fy+cx)中关于x的部分cx的下界;

(2)子问题SP是给了一个具体的y_bar后关于x的模型,目标函数是min(cx)。

以下是关于UB和LB的详细说明:

(1)因为子问题是给一个具体的y_bar后求解的得到x值的模型,因此该解必定是原问题的一个可行解,也就是子问题给出了一个上界UB=fy+Q(y)。

注:子问题的Q(y)其实子问题对偶问题的目标函数值。当子问题对偶问题最优,即子问题最优,目标函数值是相同的。

(2)再来考虑主问题,因为忽略了x,也就是对问题进行了松弛,并没有把x对y的影响全部加回来,即约束少,可行域变大(本质是松弛),因此解不弱于原来模型的解,即主问题给出了一个下界LB=fy+q。

(3)当上界UB=下界LB时,fy+Q(y)=fy+q,也就是Q(y)=q。因此判断原问题是否最优的方法是:查看主问题的q取值和子问题的Q(y)取值是否相同。

a) 当子问题最优时,即得到了一个可行解,UB=min{UB, fy+Q(y)};

b) 添加割后求解主问题,得到的就是LB。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值