(凸优化理论学习笔记2017/3/18)Theory of Convex Optimeization for Machine Learning(Sebatien Bubeck)

Section5.2: Smooth saddle-point representation of a non-smooth function

  • Quite often the non-smoothness of a function f comes from a max operation.

5.2.1: Saddle point computation

  1. 计算表达式;
    这里写图片描述

  2. 函数需满足条件:紧凑凸集,并且连续,f(.y) is convex and f(x.) is concave;
    这里写图片描述

  3. 最优解为x*,y*,满足
    这里写图片描述

  4. 通过算法我们能得到一些列候选解x’,y’,通过duality gap来评价the quality of (x’,y’)
    这里写图片描述

  5. 可以证明这个评价表达式也满足凸性
    这里写图片描述

  6. 证明过程:
    由函数的凸性:
    这里写图片描述
    由函数的凹性:
    这里写图片描述
    两式相加得到前面的表达式

  7. 总结:由于Saddle Point的最优解和候选解的评价表达式具有凸性,所以我们可以利用凸优化问题的一些方法来考虑有关Saddle Point的问题

5.2.2:Saddle Point Mirror Descent (SP-MD)

  1. 定义mirror map:
    这里写图片描述
    这里写图片描述

  2. 联系Mirror Descent概念得到迭代式
    这里写图片描述
    这里写图片描述

  3. SP-MD的收敛性
    这里写图片描述

  4. 证明详细见论文

5.2.3: Saddle Point Mirror Prox (SP-MP)

  1. Mirror Prox的迭代式
    这里写图片描述

  2. 联系Mirror Prox得到SP-MP的迭代式
    这里写图片描述

  3. SP-MP的收敛性
    这里写图片描述

  4. 证明详细见论文

5.2.4: Applications

  • Three applications for SP-MD and SP-MP
5.2.4.1: Minimizing a maximum of a smooth functions
5.2.4.2: Matrix games
5.2.4.3: Linear classification
未完待续
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值