文章目录
前言
提示:这里可以添加本文要记录的大概内容:
随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习算法之常用回归算法。
提示:以下是本篇文章正文内容,下面案例可供参考
一、线性回归
1.一元线性回归
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
path='C:\\Users\\Administrator\\' # 等价于import os os.getcwd()
X=pd.read_csv(path+'1x_regression.csv',sep=',',encoding='utf-8').values
X.shape
lr=LinearRegression()
lr.fit(X[:,0].reshape(-1,1),X[:,1].reshape(-1,1)) #X[:,1]取X最后一列做一维数组(标签)
lr.predict(X[:,0].reshape(-1,1))
print('回归方程:','y=',lr.coef_[0],'*x+',lr.intercept_[0])
for x in range(10):
print('x=',x,'时,y的预测值为',lr.predict([[x]]))
输出结果:
2.多元线性回归
#加载数据集
X=pd.read_csv(path+'3x_regression.csv',sep=',',encoding='utf-8').values
lr=LinearRegression()
lr.fit(X[:,0:3],X[:,3])
print('回归系数为',lr.coef_)
print('截距为',lr.intercept_)
print('回归方程:','y=',lr.coef_[0],'*x0+',lr.coef_[1],'*x1+',lr.coef_[2],'*x2+',lr.intercept_)
for x0 in [1,3]:
for x1 in [2,4]:
for x2 in [5,7]:
x=np.array([x0,x1,x2]).reshape(