Python学习--Machine-Learning 吴恩达机器学习编程作业 (第一周)

本文介绍了吴恩达机器学习课程的编程作业,涵盖单变量和多变量线性回归,包括代价函数、梯度下降、正规方程法以及使用sklearn库的实现。通过实例代码详细解析了线性回归的每个步骤,并提供了数据链接供读者实践。
摘要由CSDN通过智能技术生成

Machine-Learning 编程作业

Programming Exercise 1:Linear Regression

1. 单变量线性回归
1.1 读取数据并显示
1.2 定义代价函数
1.3 梯度下降法
1.4 可视化
2. 多变量线性回归
2.1 读入数据并显示
2.2 特征归一化
2.3 代价函数
2.4 梯度下降
3. 正规方程法实现单变量回归
4. 用sklearn库中函数实现单变量回归

作业文件打包如下: 链接:https://pan.baidu.com/s/1S6-q29v_zYWUXugWAZk-zg 提取码:h20r

单变量线性回归

1.1 读取数据并显示

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

path = 'ex1data1.txt'
data = pd.read_csv(path, header=None, names=['Population', 'Profit'])  #参数设置参见pd.read_csv函数
print(data.head())  #输出前5行,也可以在括号里自定义输出前几行
# print(data.describe())
data.plot(x='Population', y='Profit', kind='scatter', figsize=(10,8))  #参见plot函数参数设置
plt.show()#画图

运行结果如图:

在这里插入图片描述
1.2 定义代价函数
根据代价函数的定义:
所以在定义代价函数的同时要对数据进行处理,将读入的数据分为:X,y,theta。同时,我们在X中插入X0,令其等于1.
在这里插入图片描述

#定义代价函数
def computeCost(X, y ,theta):
    Orc = np.power(((X * theta.T) - y), 2)
    return np.sum(Orc) / (2 * len(X))

#处理数据
data.insert(0, 'Ones', 1)  #加一行全为1的数
# print(data.head())  #可以边写边看数据
cols = data.shape[1]
X = data.iloc[:,0:cols-1]  #X是所有行,去掉最后一列
y = data.iloc[:,cols-1:cols]  #y是所有行的最后一列
# print(X.head())
# print(y.head())
X = np.matrix(X.values)#将X的值转化为矩阵形式,方便计算
y = np.matrix(y.values)
theta = np.matrix(np.array([0,0]))
# print(theta)
# print(X.shape
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值