线性回归之普通最小二乘

from sklearn import linear_model
reg=linear_model.LinearRegression()
print(reg.fit([[0,0],[1,1],[2,2]],[0,1,2]))
#LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
print(reg.coef_)#[0.5 0.5]
#fit_intercept是用来计算截距,默认为true
#normalize标准化,默认为true
#copy_X复制x数据,默认为true
#n_jobs计算性能,默认为1
#用该类实例化出的对象有两个属性:coef_:估计系数,intercept_:截距
#该类实例化出的对象有几种方法,fit(x,y,[权重]);get_params([deep])得到参数估计量,默认为true
#predict(x)用来预测,score(x,y,sample_weight=none)用来返回确认系数R^2的预测。
from sklearn.linear_model import LinearRegression
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
#reg=linear_model.LinearRegression()
#print(reg.fit([[0,0],[1,1],[2,2]],[0,1,2]))
#LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
#print(reg.coef_)#[0.5 0.5]
#fit_intercept是用来计算截距,默认为true
#normalize标准化,默认为true
#copy_X复制x数据,默认为true
#n_jobs计算性能,默认为1
#用该类实例化出的对象有两个属性:coef_:估计系数,intercept_:截距
#该类实例化出的对象有几种方法,fit(x,y,[权重]);get_params([deep])得到参数估计量,默认为true
#predict(x)用来预测,score(x,y,sample_weight=none)用来返回确认系数R^2的预测。
data=pd.DataFrame({'a':[150,200,250,300,350,400,600],
                   'b':[5450,6850,8750,9650,10450,13450,16450]})
#print(data)
data_train=np.array(data['a']).reshape(data['a'].shape[0],1)
#print(data_train)
data_test=data['b']
#print(data_test)
reg=LinearRegression()
reg.fit(data_train,data_test)
c=reg.predict(268.5)
print(c)#[8833.54255319]
print(reg.coef_*268.5+reg.intercept_)#[8833.54255319]
#print(reg.score(data_train,data_test))
plt.scatter(data['a'],data['b'])
plt.plot(data['a'],data['b'],color='blue')
plt.plot(data['a'],reg.predict(np.array(data['a']).reshape(data['a'].shape[0],1)),color='red')
plt.show()

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值