吴恩达机器学习 目标18天完成 8.12 Day2

本文介绍了梯度下降法在优化成本函数中的应用,包括理解costfunction的导数、学习率的选择,以及批量梯度下降在线性回归中的使用。作者提到在进行Labs实践时发现对numpy知识的需求,于是补充了相关课程如北理的Python数据分析课程。
摘要由CSDN通过智能技术生成

学习笔记

4.3 理解梯度下降

在这里插入图片描述

*cost function的导数用于决定我们往什么方向调整w
当我们的w初始值在左侧的时候,此时J(w)的导数值是负数,那么根据w=w-alpha(negative number),w会增加,从而接近cost function的最小值
4.4 学习率 learning rate
1.当我们越来越接近最小成本函数cost function的值的时候,对应的derivative的值也会越来越小,从而我们一步一步接近最小值。而alpha也就是学习率learning rate的值是不用减少的,当derivative=0的时候,对应的方程w=w-alpha
0,从而w不变化,我们也得到了cost function的局部最小值。
在这里插入图片描述

4.5 用于线性回归的梯度下降
1.相关算法推导
在这里插入图片描述

2.但梯度下降可以获取的是局部最小值并非一定就是全局最小值,对于碗型的函数,一定能够获取到全局最小值。而对于山坡函数,则可能会有很多局部最小值
4.6 运行梯度下降
在这里插入图片描述

1.批量梯度下降,batch gradient descent,每次梯度下降的过程都是用所有的训练集数据

Labs

  • C1_W1_Lab01_Python_Jupyter_Soln
  • C1_W1_Lab02_Course_Preview_Soln

numpy

学习到这里的Labs突然发现自己numpy等知识还不够充分,因此我又去补了一些课,北理-Python数据分析与展示-Numpy、Matplotlib、Pandas,在我的吴恩达机器学习 目标18天完成专栏中也可以看到

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值