欠拟合过拟合
欠拟合:
-训练集表现不好,而且训练集以外的数据也表现不好
-原因:
-数据特征太少
-交叉验证:训练集结果表现不行
-解决:增加数据特征
过拟合:
-训练集表现很好,但在训练集以外的数据集表现不好
-原因:
-数据特征过多
-测试集表现不行
-解决:
-进行特征选择,消除关联性大的特征
-交叉验证
-正则化
线性关系
非线性关系
特征选择
-过滤式:低方差特征
-嵌入式:正则化,决策树,神经网络
L2正则化
作用:可以使得W的每个元素都很小,都接近于0
优点:越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合
回归:解决过拟合的方式
线性回归 容易出现过拟合,为了把训练数据表现的更好
L2正则化 Ridge岭回归,带有正则化的线性回归,解决过拟合
岭回归
sklearn.linear_model.Ridge
alpha 正则化力度 力度越大,模型越简单, 取值0~1 1~10
coef_ 回归系数
回归得到的回归系数更符合实际,更可靠,
另外,能让估计参数的波动范围变小,变得更稳定,
在存在病态数据偏多的研究中有较大的实用价值
代码示例
综合 线性回归,梯度下降,岭回归
# -*- coding: utf-8 -*-
from sklearn.datasets import load_boston
from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
# 加载数据
boston = load_boston()
# 训练集,测试集拆分
X_train, X_test, y_train, y_test = train_test_split(
boston.data, boston.target, test_size=0.25)
# 数据标准化处理
# 特征值 标准化
std_x = StandardScaler()
X_train = std_x.fit_transform(X_train)
X_test = std_x.transform(X_test)
# 目标值 标准化
std_y = StandardScaler()
y_train = std_y.fit_transform(y_train.reshape(-1, 1))
y_test = std_y.transform(y_test.reshape(-1, 1))
# 正规方程
lr = LinearRegression()
lr.fit(X_train, y_train)
print(lr.coef_)
y_lr_predict = std_y.inverse_transform(lr.predict(X_test))
# 梯度下降
sgd = SGDRegressor()
sgd.fit(X_train, y_train)
print(sgd.coef_)
y_sgd_predict = std_y.inverse_transform(sgd.predict(X_test))
# 岭回归
ridge = Ridge()
ridge.fit(X_train, y_train)
print(ridge.coef_)
y_ridge_predict = std_y.inverse_transform(ridge.predict(X_test))
# 均方误差
lr_mse = mean_squared_error(std_y.inverse_transform(y_test), y_lr_predict)
sgd_mse = mean_squared_error(std_y.inverse_transform(y_test), y_sgd_predict)
ridge_mse = mean_squared_error(std_y.inverse_transform(y_test), y_ridge_predict)
print(lr_mse)
print(sgd_mse)
print(ridge_mse)
"""
20.887918065953176
21.059487199230684
20.87817117552608
"""