机器算法之回归分析


前言

提示:这里可以添加本文要记录的大概内容:
随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习算法之常用回归算法。


提示:以下是本篇文章正文内容,下面案例可供参考

一、线性回归

1.一元线性回归

import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
path='C:\\Users\\Administrator\\'  # 等价于import os  os.getcwd()
X=pd.read_csv(path+'1x_regression.csv',sep=',',encoding='utf-8').values
X.shape
lr=LinearRegression()
lr.fit(X[:,0].reshape(-1,1),X[:,1].reshape(-1,1))  #X[:,1]取X最后一列做一维数组(标签)
lr.predict(X[:,0].reshape(-1,1))
print('回归方程:','y=',lr.coef_[0],'*x+',lr.intercept_[0])
for x in range(10):
    print('x=',x,'时,y的预测值为',lr.predict([[x]]))

输出结果:
请添加图片描述

2.多元线性回归

#加载数据集
X=pd.read_csv(path+'3x_regression.csv',sep=',',encoding='utf-8').values
lr=LinearRegression()
lr.fit(X[:,0:3],X[:,3])
print('回归系数为',lr.coef_)
print('截距为',lr.intercept_)
print('回归方程:','y=',lr.coef_[0],'*x0+',lr.coef_[1],'*x1+',lr.coef_[2],'*x2+',lr.intercept_)
for x0 in [1,3]:
    for x1 in [2,4]:
        for x2 in [5,7]:
            x=np.array([x0,x1,x2]).reshape(
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值