Machine-Learning 编程作业
Programming Exercise 1:Linear Regression
1. 单变量线性回归
1.1 读取数据并显示
1.2 定义代价函数
1.3 梯度下降法
1.4 可视化
2. 多变量线性回归
2.1 读入数据并显示
2.2 特征归一化
2.3 代价函数
2.4 梯度下降
3. 正规方程法实现单变量回归
4. 用sklearn库中函数实现单变量回归
作业文件打包如下: 链接:https://pan.baidu.com/s/1S6-q29v_zYWUXugWAZk-zg 提取码:h20r
单变量线性回归
1.1 读取数据并显示
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
path = 'ex1data1.txt'
data = pd.read_csv(path, header=None, names=['Population', 'Profit']) #参数设置参见pd.read_csv函数
print(data.head()) #输出前5行,也可以在括号里自定义输出前几行
# print(data.describe())
data.plot(x='Population', y='Profit', kind='scatter', figsize=(10,8)) #参见plot函数参数设置
plt.show()#画图
运行结果如图:
1.2 定义代价函数
根据代价函数的定义:
所以在定义代价函数的同时要对数据进行处理,将读入的数据分为:X,y,theta。同时,我们在X中插入X0,令其等于1.
#定义代价函数
def computeCost(X, y ,theta):
Orc = np.power(((X * theta.T) - y), 2)
return np.sum(Orc) / (2 * len(X))
#处理数据
data.insert(0, 'Ones', 1) #加一行全为1的数
# print(data.head()) #可以边写边看数据
cols = data.shape[1]
X = data.iloc[:,0:cols-1] #X是所有行,去掉最后一列
y = data.iloc[:,cols-1:cols] #y是所有行的最后一列
# print(X.head())
# print(y.head())
X = np.matrix(X.values)#将X的值转化为矩阵形式,方便计算
y = np.matrix(y.values)
theta = np.matrix(np.array([0,0]))
# print(theta)
# print(X.shape