吴恩达之神经网络和深度学习-2.4梯度下降法

梯度下降
概述: y^=σ(wTx+b),σ(z)=11+ez y ^ = σ ( w T x + b ) , σ ( z ) = 1 1 + e − z
J(w,b)=1mmi=1L(y^(i),y(i))=1mmi=1y(i)logy^(i)+(1y(i))log(1y^(i)) J ( w , b ) = 1 m ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) = − 1 m ∑ i = 1 m y ( i ) l o g y ^ ( i ) + ( 1 − y ( i ) ) l o g ( 1 − y ^ ( i ) )
想要找到w,b最小的值
这里写图片描述
以下为个人阐述观点:
学过导数的我们知道,一个函数对某一点进行求导,首先是求出该点的斜率,该点的导数值即为斜率。
这里写图片描述
如上所示的简单的一维图像是一个凹函数,使w点最低,就要使得w逐步缩小。如下公式:
w:=wαdJ(w)dw w := w − α d J ( w ) d w
其中 α α 是学习率,一般非常小,在0.001-0.1之间。:=表示循环赋值 dJ(w)dw d J ( w ) d w 为对w进行求导,即可以转化为 w:=wαdw w := w − α d w ,可使得w自行找到最低点。当w处于左边时,斜率为负数, αdw α d w 为负数, αdw − α d w 为正数, wαdw w − α d w 将会逐步增加,达到最低点。
同样在高纬度中,有两个函数或多个函数,则对其进行求偏导。如下公式所示:
w:=wαJ(w,b)w w := w − α ∂ J ( w , b ) ∂ w
b:=bαJ(w,b)b b := b − α ∂ J ( w , b ) ∂ b

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值