l1范数最小化快速算法

1:解决的问题模型如下:

这里写图片描述
或者约束条件可以适当的松弛,即为如下模型:
这里写图片描述
当然约束条件取 l2 范数, b 数据获取的比较准确,结果逼近的效果更好,防止过拟合。如果取l1 范数,则是获取的 b 数据,受到污染比较严重。并且b 本身就是稀疏的。这也是人的经验对于模型的成功也是很重要的。
2:几类优化算法
(1)梯度投影算法Gradient Projection Methods
原问题可以变为如下问题:
这里写图片描述
下面介绍两种方法对其进行处理。
i)上式又等价于:
这里写图片描述

这里写图片描述
所以就有如下记号和约定:
这里写图片描述
更新 zk 时沿着负梯度的方向下降最快。但是只是局部最小值。
这里写图片描述
其中 ak 是步长,可以用线搜索的方法来确定最优步长。
下介绍第二种方法 truncated Newton interior-point method.
ii)上式又等价于:
这里写图片描述
利用内点法的把约束条件给罚到目标函数上去。
在这里我们对约束条件利用logarithmic barrier函数进行改写。
这里写图片描述
在这里,我们可以看到当 xi 越接近 uiui 的时候,函数值会变得越大。当 xi 无限趋近于 uiui 时,则函数值无限趋于无穷大。所以只有当 xi 趋近于0时候,函数值才趋近于一个常数。
所以上式可以等价于如下模型:
这里写图片描述

然后利用牛顿算法进行求解计算。

(2)迭代阈值收缩算法 Iterative Shrinkage-Thresholding Methods
对于一般的模型:
这里写图片描述
其中:这里写图片描述

f(x) 二次近似。则问题转变成如下:
这里写图片描述
可以适用迭代阈值算法。关于l_{1}范数最优化的迭代阈值算法的证明可以参见我的另一篇博客

(3)近端梯度算法 Proximal gradient method
其处理的模型如下:
这里写图片描述
其中 f(x) 是连续可微的,微分函数满足利普希茨条件成立:
这里写图片描述
其中 L 相当于代替f(x)的二阶偏导。
那么可以进行如下算法来解决问题:
这里写图片描述
说明:
第一步的更新:按照 f(x) 沿着负梯度的方向下降最快
第二步的更新:有数值解,进行软阈值操作。
(4)交替方向法 Alternating Direction Methods
其实利用的是拉格朗日算法,来进行更新出来。解决的模型如下:
这里写图片描述
其拉格朗日函数如下:
这里写图片描述
问题变为分别最小化 x,e,y
说明:
更新 e 时,固定x,y,直接求导, e 有数值解。
更新x 时,固定 e,y 经过化简,可以运用软阈值进行操作计算。
更新 y 时,固定x,e,直接求导, y <script type="math/tex" id="MathJax-Element-6087">y</script>有数值解。

Fast ℓ 1-minimization algorithms and an application in robust face recognition

  • 11
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值