近端梯度下降(proximal gradident descent)

一般而言,如果目标函数是凸的并且可微,那么使用梯度下降总是可以求出。而当有部分为凸且不可微时,这个时候就要用这个
近端梯度下降算法进行优化了。

在这里插入图片描述
也就是使用下面的PGD 就可以解决这类优化问题
在这里插入图片描述
其中 p r o x t h ( w ) prox_{th}(w) proxth(w) 为proximal operator, 这个是定义,为啥是这样可以参考https://cswhjiang.github.io/page7/。

具体而言就是在函数h 上找一点 z ∗ z^* z, 使得 w w w 到这个 z ∗ z^* z的距离最小, z ∗ z^* z可以称为 w w w h h h 上的投影,下面是例子
在这里插入图片描述
其中的 S λ t S_{\lambda t} Sλt为软阈值函数。需要通过h 计算出来的。

举个例子,1-norm为不可微凸函数, t 是一个新增参数,表示近端梯度下降的步长 (step size); λ \lambda λ 为正则项的参数
在这里插入图片描述
(可看推导https://angms.science/doc/CVX/ISTA0.pdf)

很好的讲解, https://zhuanlan.zhihu.com/p/82622940

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值