机器学习
机器学习是一种实现人工智能的方法,从数据中寻找规律、建立关系,根据建立的关系解决实际问题.
监督学习 Supervised Learning
训练数据包括正确的结果
无监督学习 Unsupervised Learning
训练数据不包括正确结果
半监督学习 Semi-supervised Learning
训练数据包括少量正确的结果 (适合样本少)
强化学习 Reinforcement Learning
根据每次结果收获的奖惩进行学习,实现优化
回归分析
根据数据,确定两种或两种以上变量间相互依赖的定量关系.
函数表达式 y=f(x1,x2…xn)
线性回归
变量与因变量存在线性关系
函数表达式 y=ax+b
属于机器学习中的监督学习
损失函数
J 尽可能的小
梯度下降法
寻找极小值的一种方法,通过向函数当前点对应梯度(或者近似梯度)的反方向的规定步长距离点进行迭代搜索,直到再极小点收敛.
评估模型表现方法
y与y’的均方误差 MSE 越小越好
R方值 接近1最好
画图 看图
实战 多因子房价预测
数据 链接:https://pan.baidu.com/s/15S4LNpPlUIi90Q6hXY9_aA
提取码:nr1b
加载数据和数据预览
#加载数据
import pandas as pd
import numpy as np
data = pd.read_csv("usa_housing_price.csv")
data.head()
展示散点图
单因子预测
多因子预测
处理数据
X_multi = data.drop(["Price"],axis=1)
预测结果 多因子 单因子 对比
代码
#%%
#加载数据
import pandas as pd
import numpy as np
data = pd.read_csv("usa_housing_price.csv")
#%%
data.head()
#%%
#展示散点图
%matplotlib inline
from matplotlib import pyplot as plt
fig = plt.figure( figsize = (10,10))
fig1 = plt.subplot(231)
plt.scatter(data.loc[: , 'Avg. Area Income'],data.loc[: , 'Price'])
plt.title("Price VS Income")
fig1 = plt.subplot(232)
plt.scatter(data.loc[: , 'Avg. Area House Age'],data.loc[: , 'Price'])
plt.title("Price VS House Age")
fig3 =plt.subplot(233)
plt.scatter(data.loc[:,'Avg. Area Number of Rooms'],data.loc[:,'Price'])
plt.title('Price VS Number of Rooms')
fig4 =plt.subplot(234)
plt.scatter(data.loc[:,'Area Population'],data.loc[:,'Price'])
plt.title('Price VS Area Population')
fig5 =plt.subplot(235)
plt.scatter(data.loc[:,'size'],data.loc[:,'Price'])
plt.title('Price VS size')
plt.show()
#%% md
# 预测
#%%
x = data.loc[: , 'size']
y = data.loc[: , "Price"]
y.head()
#%%
X = np.array(x).reshape(-1,1)
#%%
from sklearn.linear_model import LinearRegression
LR1 = LinearRegression()
LR1.fit(X,y)
#%%
y_predict_1 = LR1.predict(X)
print(y_predict_1)
#%% md
## 可视化 评估结果
#%%
from sklearn.metrics import mean_squared_error,r2_score
MSE_1 = mean_squared_error(y,y_predict_1)
R2_1 = r2_score(y,y_predict_1)
print(MSE_1,R2_1)
#%%
fig_reslut = plt.figure(figsize = (8,5))
plt.scatter(X,y)
plt.plot(X,y_predict_1,"r")
plt.show()
#%% md
# 多因子预测
#%%
X_multi = data.drop(["Price"],axis=1)
X_multi
#%%
LR_multi = LinearRegression()
LR_multi.fit(X_multi,y)
#%%
y_predict_multi = LR_multi.predict(X_multi)
#%%
MSE_multi = mean_squared_error(y,y_predict_multi )
R2_multi = r2_score(y,y_predict_multi )
print(MSE_multi ,R2_multi )
#R2结果趋近于1
#%%
#多因子
fig_reslut_multi = plt.figure(figsize = (8,5))
plt.scatter(y,y_predict_multi)
plt.show()
#单因子
fig_reslut_multi2 = plt.figure(figsize = (8,5))
plt.scatter(y,y_predict_1)
plt.show()
#多因子效果更好
#%% md
# 预测
#%%
X_test = [65000,5,5,30000,200]
X_test = np.array(X_test).reshape(1,-1)
print(X_test)
#%%
y_test = LR_multi.predict(X_test)
print(y_test)
#%%