在loss function中引入L1正则项时,会遇到L1正则项的求导问题:
更一般的表达形式:min f(x) + g(x)
f(x):convex & smooth
g(x):convex but not smooth
如L1范数就是不光滑的,L1范数的二维曲线可以表示成:
可以看到L1范数在x=0处是不可导的,为了解决这个问题,需要用到近端梯度求解,proximal gradient descent.
用f star 去近似f(x),这样使得原问题就会有解析解
在loss function中引入L1正则项时,会遇到L1正则项的求导问题:
更一般的表达形式:min f(x) + g(x)
f(x):convex & smooth
g(x):convex but not smooth
如L1范数就是不光滑的,L1范数的二维曲线可以表示成:
可以看到L1范数在x=0处是不可导的,为了解决这个问题,需要用到近端梯度求解,proximal gradient descent.
用f star 去近似f(x),这样使得原问题就会有解析解