【统计学习方法】附录C 拉格朗日对偶性

本文介绍了统计学习方法中的拉格朗日对偶性,包括原始优化问题如何转换为拉格朗日的极小极大问题,对偶问题的定义,以及原问题与对偶问题的关系。当原问题是凸优化并满足特定条件时,可通过求解对偶问题来找到最优解。关键概念包括拉格朗日乘子、凸集和Slater条件,以及KKT条件在寻找原问题和对偶问题解中的作用。
摘要由CSDN通过智能技术生成

1. 原始优化问题等价拉格朗日的极小极大问题

原始优化问题
在这里插入图片描述
c i ( x ) c_i(x) ci(x)为不等式约束
h j ( x ) h_j(x) hj(x)为等式约束

广义拉格朗日函数
在这里插入图片描述
其中 α j , β j \alpha_j,\beta_j αj,βj称为拉格朗日乘子, α i ≥ 0 \alpha_i \ge 0 αi0

考虑以下关于x的函数:
在这里插入图片描述
有:
在这里插入图片描述
θ p ( x ) \theta_p(x) θp(x)的极小化问题就等价于原优化问题:
在这里插入图片描述
min ⁡ x θ p ( x ) \min_x\theta_p(x) minxθp(x)则称为广义拉格朗日函数的极小极大问题

2. 对偶问题

原始问题的对偶问题为广义拉格朗日函数的极大极小问题,即:
在这里插入图片描述

3. 原问题和对偶问题的关系

定理1
原优化问题与对偶问题最优值的关系:
d ∗ ≤ p ∗ d^* \le p^* dp

定理2
当原优化问题为凸优化问题,且满足slater条件时则存在 x ∗ , α ∗ , β ∗ x^*, \alpha^*,\beta^* x,α,β使得:
p ∗ = d ∗ = L ( x ∗ , α ∗ , β ∗ ) p^* = d^* = L(x^*, \alpha^*,\beta^*) p=d=L(x,α,β)
即对原优化问题的求解可以转化为对对偶问题的求解。

凸优化问题满足两个条件:

  1. 可行域为凸集;(可行域中任意两点之间的连线人在该可行域中)
  2. 函数为凸函数
    slater条件是指,凸集的交集有内点。(凸集的交集仍为凸集,但不一定有内点)

定理3
x ∗ , α ∗ , β ∗ x^*, \alpha^*,\beta^* x,α,β满足KKT条件,则 x ∗ , α ∗ , β ∗ x^*, \alpha^*,\beta^* x,α,β为原问题和对偶问题的解。(前提是满足定理2成立的条件)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值