机器学习 -- 多项式回归(Ⅳ 学习曲线)

本文探讨了机器学习中学习曲线的概念,通过比较线性回归和多项式回归的学习曲线,揭示了模型训练过程中的误差变化趋势。线性回归在训练数据集上的误差逐渐升高,测试误差在样本增加后趋于稳定。而多项式回归中,2阶多项式显示出较好的性能,但20阶多项式可能导致过拟合,测试误差增大。总结指出,欠拟合和过拟合的特征以及对模型泛化能力的影响。
摘要由CSDN通过智能技术生成

1. 什么是学习曲线?

随着训练样本的逐渐增多,算法训练出的模型的表现能力的变化情况。

 

2. 学习曲线的比较

(1)生成测试用例

import numpy as np
import matplotlib.pyplot as plt

x = np.random.uniform(-3, 3, size=100)
X = x.reshape(-1, 1)
# 一元二次方程
y = 0.5 * x ** 2 + x + 2 + np.random.normal(0, 1, size=100)

图像:

(2)划分数据集

from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=10)
X_train.shape
# (75, 1)

(3)绘制学习曲线

① 线性回归的学习曲线

from sklearn.linear_model impo
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值