神经网络和深度学习(七)

梯度下降法(Gradient Descent)

逻辑回归算法如下式子:

成本函数J(w,b)用于训练w(特征权重,维度与特征向量相同),b(实数,表示偏差)

成本函数J(w,b)是损失函数平均值的和,展开式如下:

 

梯度下降法的形象化说明

在实际中w可能是更高维度,但是此时定义也和b一样,表示一个实数,也就是一维。我们所要做的就是使w,b尽可能小,也就是图中尽可能在曲面的底端。

 

抽象为一维坐标

之后重复如下式子,迭代更新出最小w:

         :=  表示更新参数

          α    表示学习率(learning rate),用来控制步长(step),即向下走一步的长度

         函数J(w)对w求导,代码中用dw变量表示。

 

上图中所在位置斜率为正,套用公式,则w减去的是一个正数,更新后w减小,即图中w往左边移动。

初始点在右边,则斜率为负数,套用公式,则w减去的是一个负数,更新后w增大,即图中w往右边移动。

同理对b也是上述如此。

最后得到两个公式:

这就是梯度下降法。

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值