吴恩达2022机器学习专项课程C1W2:实验Lab_02多元线性回归

1.训练集

使用Numpy数组存储数据集。
在这里插入图片描述

2.打印数组

打印两个数组的形状和数据。
在这里插入图片描述

3.初始化w,b

为了演示,w,b预设出接近最优解的值。w是一个一维数组,w个数对应特征个数。
在这里插入图片描述

4.非向量化计算多元线性回归函数

使用for循环,计算每个w和x的乘积。
在这里插入图片描述
在这里插入图片描述

5.向量化计算多元线性回归函数

使用Numpy的dot方法,一行代码实现每个w和x的乘积。
在这里插入图片描述
在这里插入图片描述

5.向量化计算多元线性回归的成本函数

每一组训练样本的预测值,都使用np.dot()+b。
在这里插入图片描述

6.计算多元线性回归的成本函数的梯度

在这里插入图片描述
第一层循环,计算每组训练样本的误差。第二层循环,遍历并计算每组训练样本的n个特征。
在这里插入图片描述

  • 第二层循环,同时计算多个wj,有几个特征列,就要计算几个w。例如这里有4个特征,则需要通过公式,分别计算并累加w1,w2,w3,w4。dj_dw数组保存的就是这4个w。每一次i循环,每个w参数都有累加。

7.运行梯度下降函数

这里的w是向量化操作,w的第一个元素减去α乘以dj_dw的第一个元素,然后更新到w的第一个元素。
里面的计算可以形象化为: [w1 - (alpha * dj_dw[0]), w2 - (alpha * dj_dw2[1])…]
在这里插入图片描述

8.运行梯度下降

执行梯度下降计算出w,b,使用w,b,通过训练集计算预测,发现与训练集的真实数据误差较大。
在这里插入图片描述

9.可视化迭代次数和成本函数

第一张图,迭代一开始,注意Y轴,成本函数的值就迅速降到750以下,。
第二张图细化了第一张图的直线部分,注意Y轴,迭代一开始,成本函数696开始缓慢下降,下降幅度变小。
在这里插入图片描述

  • 13
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值