2021-10-01

线性回归:使用Excel和jupyter拟合身高体重数据集线性回归模型

一、Excel中数据分析功能

二、用jupyter编程,借助sklearn

三、用jupyter编程(不借助第三方库),用最小二乘法

四、结果分析

一、Excel中数据分析功能
(一)选取20组数据

在这里插入图片描述
得到的线性回归方程为:y1= 4.128x1 -152.23
相关系数:R^2=0.3254

(二)选取200组数据

在这里插入图片描述
得到的线性回归方程为:y2= 3.4317x2 -105.96
相关系数:R^2=0.31

(三)选取2000组数据
在这里插入图片描述
得到的线性回归方程为:y3= 2.9555x3 -73.661
相关系数:R^2=0.2483

二、用jupyter编程,借助sklearn
(一)准备工作

1.导入数据集文件。
在这里插入图片描述2.书写代码导入需要的包,做好数据准备工作。
在这里插入图片描述
在这里插入图片描述(二)选取20组数据

代码:

#20个
x1 = array(d[['Height']].values[:20,:])
y1 = array(d[['Weight']].values[:20,:])
model = linear_model.LinearRegression()
model.fit(x1,y1)
#斜率
print(model.coef_)
#截距
print(model.intercept_)
a=model.intercept_
b=model.coef_
y_hate1=b*x1+a
print("线性回归方程为:y1=",b,"x1",a)
#计算R^2
model.score(x1,y1)
plt.figure()
plt.scatter(x1,y1)#散点图绘制初始数据
plt.plot(x1,y_hate1,color='r')#绘制直线
plt.show()

在这里插入图片描述在这里插入图片描述
线性回归方程为:y1= 4.1280375x1 -152.23378453
相关系数:R^2=0.3254230249366249

(三)选取200组数据

代码:

#200个
x2 = array(d[['Height']].values[:200,:])
y2 = array(d[['Weight']].values[:200,:])
model = linear_model.LinearRegression()
model.fit(x2,y2)
#斜率
print(model.coef_)
#截距
print(model.intercept_)
a=model.intercept_
b=model.coef_
y_hate2=b*x2+a
print("线性回归方程为:y2=",b,"x2",a)
#计算R^2
model.score(x2,y2)
plt.figure()
plt.scatter(x2,y2)#散点图绘制初始数据
plt.plot(x2,y_hate2,color='r')#绘制直线
plt.show()

在这里插入图片描述
在这里插入图片描述线性回归方程为:y2= 3.43166515 x2 -105.95901105
相关系数:R^2=0.309995534330923

(四)、选取2000组数据

代码:

#2000个
x3 = array(d[['Height']].values[:2000,:])
y3 = array(d[['Weight']].values[:2000,:])
model = linear_model.LinearRegression()
model.fit(x3,y3)
#斜率
print(model.coef_)
#截距
print(model.intercept_)
a=model.intercept_
b=model.coef_
y_hate3=b*x3+a
print("线性回归方程为:y3=",b,"x3",a)
#计算R^2
model.score(x3,y3)
plt.figure()
plt.scatter(x3,y3)#散点图绘制初始数据
plt.plot(x3,y_hate3,color='r')#绘制直线
plt.show()

在这里插入图片描述
在这里插入图片描述
线性回归方程为:y3= 2.95552697x3 -73.66078552
相关系数:R^2=0.24830120336384287

三、用jupyter编程(不借助第三方库),用最小二乘法
(一)、选取20组数据

代码:

#20个
#计算平均值
x1_mean=np.mean(x1)
y1_mean=np.mean(y1)
#计算a,b
num=0.0#分子
d=0.0#分母
m=0.0
for x1_i,y1_i in zip(x1,y1):
    num+=(x1_i-x1_mean)*(y1_i-y1_mean)
    d+=(x1_i-x1_mean)**2
    m+=(y1_i-y1_mean)**2
a1=num/d
b1=y1_mean-a1*x1_mean
y_hate=a1*x1+b1
print("线性回归方程为:y1=",a1,"x1",b1)
#计算R^2
print("R^2:",((num/math.sqrt(d*m))**2))
plt.scatter(x1,y1)
plt.plot(x1,y_hate,color='g')#绘制直线
plt.show()

在这里插入图片描述
在这里插入图片描述线性回归方程为:y1= 4.1280375x1 -152.23378453
相关系数:R^2=0.32542302

(二)选取200组数据

代码:

#计算平均值
#200个
x2_mean=np.mean(x2)
y2_mean=np.mean(y2)
#计算a,b
num=0.0#分子
d=0.0#分母
m=0.0
for x2_i,y2_i in zip(x2,y2):
    num+=(x2_i-x2_mean)*(y2_i-y2_mean)
    d+=(x2_i-x2_mean)**2
    m+=(y2_i-y2_mean)**2
a2=num/d
b2=y2_mean-a2*x2_mean
y_hate=a2*x2+b2
print("线性回归方程为:y2=",a2,"x2",b2)
#计算R^2
print("R^2:",((num/math.sqrt(d*m))**2))
plt.scatter(x2,y2)
plt.plot(x2,y_hate,color='g')#绘制直线
plt.show()

在这里插入图片描述
在这里插入图片描述线性回归方程为:y2= 3.43166515 x2 -105.95901105
相关系数:R^2=0.30999553

(三)选取2000组数据

代码:

#2000个
#计算平均值
x3_mean=np.mean(x3)
y3_mean=np.mean(y3)
#计算a,b
num=0.0#分子
d=0.0#分母
m=0.0
for x3_i,y3_i in zip(x3,y3):
    num+=(x3_i-x3_mean)*(y3_i-y3_mean)
    d+=(x3_i-x3_mean)**2
    m+=(y3_i-y3_mean)**2
a3=num/d
b3=y3_mean-a3*x3_mean
y_hate=a3*x3+b3
print("线性回归方程为:y3=",a3,"x3",b3)
#计算R^2
print("R^2:",((num/math.sqrt(d*m))**2))
plt.scatter(x3,y3)
plt.plot(x3,y_hate,color='g')#绘制直线
plt.show()

在这里插入图片描述
在这里插入图片描述线性回归方程为:y3= 2.95552697x3 -73.66078552
相关系数:R^2=0.2483012

四、结果分析

得到的结果基本相同精度略有差别,但借助sklearn编写程序可以很明显的感受到比直接编写更加简便,只需要调用相应的函数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值