2022吴恩达机器学习(Deep learning)课程对应笔记10:梯度下降1

2022吴恩达机器学习(Deep learning)课程对应笔记10

梯度下降1

更新时间:2023/03/20
在这里插入图片描述

概述

上一节讲到的例子,是我们试了很多个 w 和 b w和b wb的值,最终找到了最小的 J J J,这种方法是非常麻烦并且不一定每次都能找到使代价函数最小的那个 w 和 b w和b wb的值。我们期望能够有一种固定的方法帮助我们找到最合适的 w 和 b w和b wb的值,从而使得代价函数 J J J的值最小。这种方法我们把它称为梯度下降
在这里插入图片描述

如上图,梯度下降是一种可以用来优化任何 f f f的算法,不仅仅是线性回归模型。梯度下降的大致做法如下:

  • w 和 b w和b wb是初始时随机的两个值,可以设置为 w = 0 , b = 0 w=0,b=0 w=0b=0
  • 持续改变 w 和 b w和b wb的值以减少 J ( w , b ) J(w,b) J(w,b)
  • 直到结果位于最小值或者接近最小值。

在这里插入图片描述
上图是一个经典的例子,假设梯度下降的过程是你从山顶下山的过程,你的目的是尽可能的快的下降到海拔最低的地方。你会一步一步的选择当前步可以下降得最快的方向,每一步都如此,直到你下到山低,或山底附近。当然如上图,你可能下降到一个局部最小值,但是你会认为这已经是山低了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值