1.2.4 【Deep Learning翻译系列】Gradient Descent 梯度下降

之前我们已经了解了Logistic Regression。Lost Function可以衡量您在单个训练示例中的表现,Cost Function可以衡量参数 w w b在整个训练集上的表现。

接下来我们会提到如何使用梯度下降算法来训练参数 w w b

成本函数 J=1mmi=1L(y^(i),yi) J = 1 m ∑ i = 1 m L ( y ^ ( i ) , y i )
=1mmi=1(yilogy^i+(1yi)log(1y^i)) = − 1 m ∑ i = 1 m ( y i log ⁡ y ^ i + ( 1 − y i ) log ⁡ ( 1 − y ^ i ) )
我们希望得到 w w b使得成本函数 J J 尽量小。

所以这里是梯度下降的例证。
一个梯度下降的例证
该成本函数J是凸函数。所以它看起来像一个碗。这是我们使用这个特定成本函数 J J 进行逻辑回归的一个重要原因。

我们现在要将w b b 初始化为某个初始值。对于对数几率回归,几乎所有初始化方法都有效,通常将值初始化为零。随机初始也有效,但人们通常不会这样进行对数几率回归。但是因为这个函数是凸的,无论你在哪里初始化,你都能够达到相同的点或大致相同的点。

所以梯度下降就是这样,我们将重复进行以下更新w:=wαJw.
其中 α α 是学习率。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值