吴恩达机器学习笔记(1)--梯度下降随记

赋值:

a:=b
a:=a+1
而不能使用a=b,a=a+1,这两行只相当于做了一个判断

梯度下降

梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数?(?0, ?1) 的最小值。
批量梯度下降(batch gradient descent)算法的公式为:

在这里插入图片描述
  其中?是学习率(learning rate),它决定了我们沿着能让代价函数下降程度最大的方向
向下迈出的步子有多大,在批量梯度下降中,我们每一次都同时让所有的参数减去学习速率
乘以代价函数的导数。

在梯度下降算法中,还有一个更微妙的问题,梯度下降中,我们要更新?0和?1 ,当 ? =
0 和? = 1时,会产生更新,所以你将更新?(?0)和?(?1)。实现梯度下降算法的微妙之处是,
在这个表达式中,如果你要更新这个等式,你需要同时更新?0和?1,我的意思是在这个等式
中,我们要这样更新:
  ?0:= ?0 ,并更新?1:= ?1。
  实现方法是:你应该计算公式右边的部分,通过那一部分计算出?0和?1的值,然后同时
更新?0和?1。【同步更新】
在这里插入图片描述

convex function 凸函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值