【First-order Methods】 10 The Proximal Gradient Method

本文探讨了复合函数模型在优化领域的应用,详细分析了近端梯度法在非凸和凸两种情况下的收敛性。通过引入梯度映射的概念,深入研究了算法在非凸情况下的充分下降性和在凸情况下的表现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考文献:first-order methods in optimization: Amir Beck

Underlying  Space:Euclidean norm

1 The Composite Model

本章主要考虑的复合函数模型及假设如下:

     

2  The Proximal Gradient Method

考虑以下问题(g=\delta _{C}):

 

投影梯度方法:

 

等价于

 

回到更一般的复合函数问题,有:

  

\Rightarrow

  

\Rightarrow

  

这里的步长是取定的t_{k}=1/L_{k}。介绍一个新的算子符号:

下面我们非凸和凸两种情况讨论这种算法的收敛性:

 

3  Analysis of the Proximal Gradient Method—The Nonconvex Case

3.1 Sufficient Decrease

讨论非凸情形下的充分下降性:

易证。

3.2 The Gradient Mapping

其中G_{L_{k}}(x^{k})=G_{L_{k}}^{f,g}(x^{k}),可以看作梯度的推广。根据

   

很容易得到该式。  此时若g\equiv 0,后半部分为梯度(与红字相呼应),如定理10.7 所述:

我们把G看作一个度量,实际上同原始的梯度相同,一开始都是<0,但到达稳定点时,等于0。

探索G的性质,实际上10.7也属于G的性质:

3.3 Convergence of the Proximal Gradient Method—The Nonconvex Case

步长选取:

4  Analysis of the Proximal Gradient Method—The Convex Case

 

 

 

 

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值