交替极小化算法(Alternating Minimization, AM算法)

AM算法:给定一个初值,交替的固定一个变量,优化其他的,主要求解无约束优化.
对于二元函数,AM算法在双稳定点(bistable point)停止,但有两个问题需要考虑的
1)收敛到双稳定点的速度,即算法收敛阶
2)收敛到的双稳定点是否是全局最小点
AM算法迭代没有参数,不必花时间调整参数,但也意味着用户对算法进程控制更少.AM算法的收敛性完全依赖优化问题的结构性质.
有界目标函数有多个双稳态点,AM最终收敛的稳定点取决于初始点的位置.
当AM算法求解学习隐变量模型,矩阵填充(子问题是边缘凸),相位恢复问题时,特别注意初始值接近最优点.而对于鲁棒回归(robust regression), 只有一个稳定点,所以对初值没有太多要求.
AM对于凸问题
(1)凸可微函数,所有双稳定点都是全局最小点.这与求解大规模凸优化问题的坐标极小化算法很类似(coordinate minimization)但是AM可以求解不可微的目标函数.(CM其实也可以,不过需要目标函数满足其他的性质, P. Tseng 2001, Convergence of a Block Coordinate Descent Method for Nondifferentiable Minimization)(非凸非光滑)
(2)连续可微边缘强光滑(二次函数做上界),初值=(0,0),可证明 O ( 1 ε ) \mathcal{O}(\frac{1}{\varepsilon}) O(ε1) 次迭代可达到误差 ε \varepsilon ε. 具体定理描述见Prateek Jain, Purushottam Kar《Non-convex Optimization for Machine Learning》的总结整理(2)的定理4.1.

AM对于非凸问题
(1)对于边缘凸函数,双稳态点等价于稳定点
(2)鲁棒双稳态性(robust bistability property)
在这里插入图片描述
右边:通过边缘优化,目标函数局部降低,性质表明,如果目标函数局部不怎么下降了,则接近最优值了.定义有个推论:满足鲁棒双稳态性质的函数,所有的双稳态点都能达到最优函数值.这个推理可由定义4.&#x

  • 0
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值