这周学习了正则项,这篇文章对三种常见的正则项------Tikhonov正则项,TV正则项和稀疏正则项进行了大概的介绍。感觉初学者读起来还是有点吃力的。在自己查阅了一点相关资料后,我觉得可以帮助大家理解一下文章所说的概念。
首先是图像复原,即由f=u+n,我们要由带噪音的降质图像f反解出未受噪音污染的原始图像,最简单的方法就是采用最小二乘法,但是可能导致过拟合。
其实问题就是特征的数量太多。为了降低某些特征的权重,我们引入正则化。
接着来介绍Tikhonov正则项。
为什么我们会引入这个正则化呢?
其实是我们求解一个矩阵方程Ax=b,希望通过min l2范数的方法来使矩阵方程成立,这个问题的解其实是
但是如果A不满秩,我们就需要加一个东西把AA’变成AA’+cl其中c是系数,I是单位阵,这样x=(AA’+cI)A’b,这种算法是岭回归算法,也就是对最小二乘法施加了一个吉洪诺夫正则化的惩罚项,
这样我们就得到了Tikhonov正则化模型,通过对学习的系数施加一定的约束,解决了数据不足或者特征相关性强的问题。实际是通过对权重施加偏压而降低了模型的权重,从而提高了泛化能力。
文章对该模型的求解给出了详细的过程,在得到该模型对应的欧拉-拉格朗日方程
接着文章说想要通过离散化来求解。
什么是离散化呢?
带入即可得到离散解,接着文章决定利用jacobi迭代法求解。
什么是jacobi迭代法呢?
一般形式为:
对于矩阵形式,该方法要求线性方程组的系数矩阵必须是非奇异的,求解过程把系数矩阵A分解为三部分:
从而转换为A=D-L-U求解
这种迭代算法一般会给定一个初值,所以文章得到的结果是: