多项式回归初探及实践

多项式回归初探及实践

起因
学弟这学期在上数模课,这次的作业是 根据 2000~2021年的人口数量,估计22年的人口数。换言之,就是给你一部分的训练数据,需要拟合出一个曲线,以此来测试另外的数据。
这不是机器学习入门的回归嘛,就来了劲了 玩一玩~

准备工作
emm,因为某些原因,学弟选择了六次多项式,那我也就训练一只六次多项式;

首先,数据如下,其中红色框框为测试数据,其余部分为训练数据:
在这里插入图片描述

首先,训练一元多项式,如下: y = f ( x ) = θ 0 + θ 1 x + θ 2 x 2 + . . . + θ n x n y=f(x)=\theta_0+\theta_1x+\theta_2x^2+...+\theta_nx^n y=f(x)=θ0+θ1x+θ2x2+...+θnxn

采用的损失函数是均方误差MSE: J ( θ ) = 1 m ∑ i = 1 m ( f ( x ( i ) ) − y ( i ) ) 2 J(\theta)=\frac{1}{m}\sum_{i=1}^{m}{(f(x^{(i)})-y^{(i)})^2} J(θ)=m1i=1m(f(x(i))y(i))2

并使用梯度下降的方法,对于参数 θ \theta θ 的梯度为:
∂ J ∂ θ j = 1 m ∑ i = 1 m ( f ( x ( i ) ) − y ( i ) ) x j ( i ) \frac{\partial J}{\partial \theta_j}=\frac{1}{m}\sum_{i=1}^{m}{(f(x^{(i)})-y^{(i)})x_j^{(i)}} θjJ=m1i=1m(f(x(i))y(i))xj(i)

所以,参数更新方程为:
θ j = θ j − η ∂ J ∂ θ j = θ j − η m ∑ i = 1 m ( f ( x ( i ) ) − y ( i ) ) x j ( i ) \theta_j=\theta_j-\eta\frac{\partial J}{\partial \theta_j}=\theta_j-\frac{\eta}{m}\sum_{i=1}^{m}{(f(x^{(i)})-y^{(i)})x_j^{(i)}} θj=θjηθjJ=θjmηi=1m(f(x(i))y(i))xj(i)

我使用了随机梯度下降法,参数更新如下:
θ j = θ j − η ∂ J ∂ θ j = θ j − η ( f ( x ( k ) ) − y ( k ) ) x j ( k ) \theta_j=\theta_j-\eta\frac{\partial J}{\partial \theta_j}=\theta_j-\eta(f(x^{(k)})-y^{(k)})x_j^{(k)} θj=θjηθjJ=θjη(f(x(k))y(k))xj(k)

同时,还把数据进行了标准化,加速参数的迭代: z ( i ) = x ( i ) − μ σ z^{(i)}=\frac{x^{(i)}-\mu}{\sigma} z(i)=σx(i)μ,其中 μ \mu μ为训练样本的均值, σ \sigma σ为训练样本的标准差;

训练!
因为是六次函数,学习率太高会导致很容易跳出去,这里我采用的是 1 e − 5 1e^{-5} 1e5,误差较小的同时,训练速度也不是很慢;

import numpy as np
import matplotlib.pyplot as plt


train=np.loadtxt('1.csv', delimiter=',', skiprows=1)
train_x=train[:,0]
train_y=train[:,1]

theta=np.random.rand(7)

def to_matrix(x):
    return np.vstack([np.ones(x.shape[0]),x,x**2,x**3,x**4,x**5,x**6]).T

def f(x):
    return np.dot(x,theta)

mu=train_x.mean()    #获取平均值
sigma=train_x.std()    #获取标准差

def standardize(x):
    return (x-mu)/sigma

def MSE(x,y):   #均方误差
    return (1/x.shape[0])*np.sum((y-f(x))**2)

train_x=standardize(train_x)

X=to_matrix(train_x)    #矩阵化


plt.plot(train_x,train_y,'o')
plt.show()

ETA=1e-5    #学习率
diff=1    #误差的差值
count=0    #更新次数

errors=[]    #均方误差的历史记录
errors.append(MSE(X,train_y))


while diff>1e-5:
    p=np.random.permutation(X.shape[0])
    for x,y in zip(X[p,:],train_y[p]):
        theta=theta-ETA*(f(x)-y)*x

    errors.append(MSE(X,train_y))
    diff=errors[-2]-errors[-1]
    count+=1
    log='第{}次: theta={}, 差值={:.4f}'
    print(log.format(count, theta, diff))

x=np.linspace(-2,2,100)
plt.plot(train_x,train_y,'o')
plt.plot(x,f(to_matrix(x)))
plt.show()
print(MSE(X, train_y))
p=[22]
print(f(to_matrix(standardize(p))))

最后拟合出来的图形,如下:
在这里插入图片描述
最后的 θ \theta θ参数,以及MSE和2022年的预测人口如下:

1337659: theta=[ 1.33911935e+03  4.85124258e+01  2.69310404e+01  8.74366182e-01
 -2.21498077e+01 -7.65711382e-01  4.50309967e+00], 差值=0.0000
MSE=3.8565485574153895
2022=[1426.37429178]

2022年的人口预测误差为:0.01033751135446032667979430222839

正则化
考虑到误差还是在1%左右,并且图形只在训练数据邻域内拟合的不错,猜测大概率出现了过拟合的情况;
所以采用正则化的方式,降低过拟合度:
向上面所使用的目标函数加入下面的正则化项: R ( θ ) = λ 2 ∑ j = 1 m θ j 2 R(\theta)=\frac{\lambda}{2}\sum_{j=1}^{m}\theta_j^2 R(θ)=2λj=1mθj2
即:
J ( θ ) = 1 m ∑ i = 1 m ( f ( x ( i ) ) − y ( i ) ) 2 + λ 2 ∑ j = 1 m θ j 2 J(\theta)=\frac{1}{m}\sum_{i=1}^{m}{(f(x^{(i)})-y^{(i)})^2}+\frac{\lambda}{2}\sum_{j=1}^{m}\theta_j^2 J(θ)=m1i=1m(f(x(i))y(i))2+2λj=1mθj2

因为 θ 0 \theta_0 θ0只有参数,被称为偏置项,故不对他进行正则化, λ \lambda λ是决定正则化影响程度的正的常数,这个值需要自己定。

正则化项的微分如下:
∂ R ( θ ) ∂ θ j = λ θ j \frac{\partial R(\theta)}{\partial \theta_j}=\lambda\theta_j θjR(θ)=λθj

因此,当前的参数更新方程为:
θ j = θ j − η ( ∂ J ∂ θ j + λ θ j ) = θ j − η ( 1 m ∑ i = 1 m ( f ( x ( i ) ) − y ( i ) ) x j ( i ) + λ θ j ) \theta_j=\theta_j-\eta(\frac{\partial J}{\partial \theta_j}+\lambda\theta_j)=\theta_j-\eta(\frac{1}{m}\sum_{i=1}^{m}{(f(x^{(i)})-y^{(i)})x_j^{(i)}}+\lambda\theta_j) θj=θjη(θjJ+λθj)=θjη(m1i=1m(f(x(i))y(i))xj(i)+λθj)

import numpy as np
import matplotlib.pyplot as plt


train=np.loadtxt('1.csv', delimiter=',', skiprows=1)
train_x=train[:,0]
train_y=train[:,1]

theta=np.random.rand(7)

def to_matrix(x):
    return np.vstack([np.ones(x.shape[0]),x,x**2,x**3,x**4,x**5,x**6]).T

def f(x):
    return np.dot(x,theta)

mu=train_x.mean()    #获取平均值
sigma=train_x.std()    #获取标准差

def standardize(x):
    return (x-mu)/sigma

def MSE(x,y):   #均方误差
    return (1/x.shape[0])*np.sum((y-f(x))**2)

train_x=standardize(train_x)

X=to_matrix(train_x)    #矩阵化


plt.plot(train_x,train_y,'o')
plt.show()

# ETA=0.00011    #学习率
ETA=0.00004    #学习率
diff=1    #误差的差值
count=0    #更新次数
LAMBDA=0.00661    #正则化常量

errors=[]    #均方误差的历史记录
errors.append(MSE(X,train_y))


while diff>1e-5:
    #正则化项,偏置项不用正则化,所以用常量
    reg_term=LAMBDA*np.hstack([0,theta[1:]])
    p=np.random.permutation(X.shape[0])
    for x,y in zip(X[p,:],train_y[p]):
        theta=theta-ETA*((f(x)-y)*x+reg_term)

    errors.append(MSE(X,train_y))
    diff=errors[-2]-errors[-1]
    count+=1
    log='第{}次: theta={}, 差值={:.4f}'
    print(log.format(count, theta, diff))

x=np.linspace(-2,2,100)
plt.plot(train_x,train_y,'o')
plt.plot(x,f(to_matrix(x)))
plt.show()
print(MSE(X, train_y))
p=[22]
print(f(to_matrix(standardize(p))))

通过调整 λ \lambda λ和学习率 η \eta η,当前得到的结果如下:

232154: theta=[1341.30275915   43.84239659   13.91964783    6.33130563  -10.04948196
   -2.18130811    1.65564268], 差值=0.0000
MSE=1.5442272555955348
2022=[1411.76770428]

拟合出的图像如下:
在这里插入图片描述

2022年的人口预测误差为:-0.00087093739817818640298063437646092%

我采用了L2正则化法,通过抑制参数的影响,从而减少过拟合;也可以通过L1正则化法,把多次函数,去掉没用的高次项,变为更简单的函数来减少过拟合。

完结撒花~
也算是顺利完成了叭 真棒


学弟用的最小二乘法,通过解方程来获得参数,精度比我的好,他的MSE很小(没办法,迭代只能近似,毕竟后面的梯度太小了,再多次的迭代作用也不大)
这里附上他的推导过程吧,有兴趣可以学习一下:
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值