多项式回归

什么是多项式回归

相对于线性回归y=ax+b这种形式,多项式回归是y=ax^2+bx+c,有高幂的项出现

如何计算多项式回归

其实多项式回归和线性回归是有很大联系,通过类比的方式

线性回归 y=ax+b 可以看做是一个特征值x对应着一个标签y

多项式回归 y=ax^2+bx+c 可以看做是[x^2, x]两个特征值对应着一个标签y

所以,使用多项式回归的思路

1、先增加特征值,以2次幂为例,就增加多一列x^2到已有的特征值中,组成[x^2, x]形式

2、再使用多项式线性回归的方式,对数据模型进行训练

这里会引入PolynomialFeatures(),这个函数是用来添加需要的多项式的,最高要加入多少次幂的,这里的degree就要写入多少

代码如下

x = np.random.uniform(-3, 3, size=100)
import numpy as np
import matplotlib.pyplot as plt
X = x.reshape(-1, 1)
y = 0.5*x*x+x+2+np.random.normal(0, 1, size=100)
plt.scatter(x, y)
from sklearn.linear_model import LinearRegression

#自己写的多项式回归处理
X2 = np.hstack([X**2, X]) #添加新的特征值
linear2 = LinearRegression()
linear2.fit(X2, y)
Y_predict = linear2.predict(X2)
plt.plot(np.sort(x), Y_predict[np.argsort(x)], color="g")

#使用sklearn里的多项式回归处理
from sklearn.preprocessing import PolynomialFeatures
poly = PolynomialFeatures(degree = 2)
poly.fit(X)
X3 = poly.transform(X)
linear3 = LinearRegression()
linear3.fit(X3, y)
YPredict = linear3.predict(X3)
plt.plot(np.sort(x), YPredict[np.argsort(x)], color="w")
plt.show()
linear3.coef_

管道法

在机器学习中,我们很多是不断重复 fit(), predict(), transform()这几个函数,那有么有可以简化的呢

管道法可以解决,代码如下

from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
pip = Pipeline([
    ("poly", PolynomialFeatures(degree = 2)),
    ("standar", StandardScaler()),
    ("linear", LinearRegression()),
])
pip.fit(X, y)
pipPredict = pip.predict(X)
plt.plot(np.sort(x), pipPredict[np.argsort(x)])
plt.show()

通过引入Pipline类解决这个问题

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值