上一节我们了解到,我们在机器学习领域要解决的主要问题便是高方差的问题,主要的解决的办法便是模型泛化,其功能的概括来说便是通过限制超参数的大小,来解决过拟合或者模型含有巨大的方差误差这样的问题。
岭回归(Ridge Regression)
岭回归也是模型正则化一种方式,通过加入模型正则化的方式来更好的解决模型过拟合的线性的产生。
根数数学的常识,我们拟合住的模型的上下抖动的幅度主要受参数的影响,因此以多项式回归为例,我们加入的模型正则化正好可以平衡这一部分。
加入的模型正则化为:
解释:上面的阿尔法其实便是我们引入的超参数,主要的作用就是用来平衡新的目标损失函数的大小。如果阿尔法等于0,那么就相当于我们没有引入模型正则化,但是如果阿尔法等于无穷,相应地,为了平衡损失函数的大小,我们需要进行使得我们的theta的平方尽可能的小才可以。
实例查看
模拟数据集进行查看:
import numpy as np
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
np.random.seed(666)
x = np.random.uniform(-3,3,size = 100)
X = x.reshape(-1,1)
y = 0.5 * x + 3. + np.random.normal