近端梯度下降(proximal gradident descent)
一般而言,如果目标函数是凸的并且可微,那么使用梯度下降总是可以求出。举个例子,1-norm的S为, t 是一个新增参数,表示近端梯度下降的步长 (step size);为proximal operator, 这个是定义,好像也不需要知道为啥这样是有效的。(可看推导https://angms.science/doc/CVX/ISTA0.pdf)很好的讲解, https://zhuanlan.zhihu.com/p/82622940。具体而言就会将不可微的h(x)转化为另一个优化问题,使用的就是。
原创
2022-09-17 01:23:45 ·
593 阅读 ·
0 评论