前言
我们在使用线性回归的时候有个局限性,就是他是假设数据背后是存在线性关系的,实际中这种情况还是比较少的。较多的还是非线性关系,多项式回归法正是解决数据之间非线性关系进行预测的机器学习算法,思路还是线性回归的原理。本质还是线性回归,只是增加了样本的特征。如下右图:将x、x^2当成两个特征。
在右图中 相当于在左边的基础上增加了一个特征x^2
上手实践
import numpy as np
import matplotlib.pyplot as plt
x=np.random.uniform(-3,3,size=100) #生成x特征 -3到3 100个
X=x.reshape(-1,1)#将x编程100行1列的矩阵
y=0.5*x**2+x+2+np.random.normal(0,1,size=100)#模拟的是标记y 对应的是x的二次函数
plt.scatter(x,y)#画出x,y散点图
plt.show()
这样的话如果我们按照之前的线性回归的方法去模拟的话: