机器学习实战(基于scikit-learn和TensorFlow)学习心得(18)--Polynomial Regression 多项式回归和学习曲线

本文探讨了在数据形似二次函数分布时,如何利用多项式回归来改进线性回归模型。通过引入更高次幂的特征项,如二次和三次多项式,以更好地拟合数据。同时,文章介绍了学习曲线的概念,展示了过度拟合和欠拟合的现象,并提出使用交叉验证来确定最佳的多项式度数,以避免过拟合和欠拟合问题。
摘要由CSDN通过智能技术生成

假设我们的系统散点是这样的
在这里插入图片描述
从图中可以看出,这个分布形似二次函数,只单纯的使用线性回归去拟合数据是肯定不合适的.所以说我们要把单纯的一次线性回归扩展成多次多项式回归.
如何使线性回归扩展成多项式回归呢?一种简单的方法是将每个feature都扩展为多次项,然后在此扩展上训练线性模型。
原线性回归方程是:y=a(x1)+b(x2)+1
二次多项式方程是:y=c(x1)^2 +d(x2)^2+a(x1)+b(x2)+1
三次多项式方程:继续在二次多项式回归方程里面加入(x1)^3 , (x2)^3, (x2)(x1)^2, (x1)(x2)^2
所以说,多项式回归不仅能拟合不规则的数据集,还能使两种features联系起来.

Learning Curves
如果我们的多项式模型过于复杂就会产生下面这种情况:
在这里插入图片描述
可以看到,当我们使用300-degree的多项式回归的时候出现了明显的过拟合情况.这是我们不想出现的结果.但是当我们用1-degree,也就是线性回归方程的时候又是明显的欠拟合.那么怎么才能找到合适的维度数呢?
很简单,我们用cross-validation去训练模型,然后根据训练集和验证集的误差大小来确定我们是不是过拟合或者欠拟合了.
在这里插入图片描述
首先,让我们看一下训练数据的性能ÿ

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值