2.9 logistic回归中的梯度下降法(非常重要,一定要重点理解)

  1. 怎么样计算偏导数来实现logistic回归的梯度下降法
    1. 它的核心关键点是其中的几个重要公式用来实现logistic回归的梯度下降法
  2. 接下来开始学习logistic回归的梯度下降法




  1. logistic回归的公式
    1. 1235596-20170908221858741-253578477.png
    2. 现在只考虑单个样本的情况,关于该样本的损失函数定义如上面第三个公式,其中a是logistic回归的输出,y是样本的基本真值标签值,
  2. 下面写出该样本的偏导数流程图
    1. 假设样本只有两个特征x1和x2
    2. 为了计算Z,我们需要输入参数w1和w2和b
      1. 1235596-20170908221859788-318128032.png
      2. 因此在logistic回归中,我们要做的就是变换参数w和b的值,来最最小化损失函数,
    3. 在前面,我们已经前向传播步骤,在单个训练样本上,计算损失函数,现在我们开始讨论怎么样向后计算偏导数,(重点)
      1. 1235596-20170908221900366-609278940.png
      2. 要想计算损失函数L的导数,
        1. 首先,我们需要向前一步,先计算损失函数的导数,计算函数L关于a的导数,在代码中,只需要使用da来表示这个变量,
          1. 事实上,1235596-20170908221900788-1229976032.png
          2. 损失函数导数的计算公式就是这样,最终结果关于变量a的导数
        2. 现在可以再向后一步,计算dz,dz是损失函数关于z的导数,
          1. 事实上1235596-20170908221901991-1587420690.png
        3. 现在,向后传播的最后一步,w和b需要如何变化,
          1. 特别的关于w1的导数(函数L对w1求导)
            1. 1235596-20170908221902335-1672409148.png
          2. 关于w2的求导
            1. 1235596-20170908221902335-1672409148.png
          3. 关于b的求导
            1. db=dz=a-y
        4. 因此,关于单个样本的梯度下降法,所需要做的就是使用这个计算公式计算dz,然后计算dw1、dw2、db,然后
          1. 更新w1位w1减去学习率乘以dw11235596-20170908221902663-1689888354.png
          2. 更新w2位w2减去学习率乘以dw21235596-20170908221902929-1345696550.png
          3. 更新b为b减去学习率乘以db1235596-20170908221903210-442016007.png
        5. 这就是单个样本实例的一次梯度更新步骤
    4. 但是训练logistic回归模型,不仅仅只有一个训练样本,而是有m个训练样本的整个训练集,
      1. 下一节将会介绍,这些想法是如何应用到整个训练样本集当中的。而不仅仅是单个样本。




转载于:https://www.cnblogs.com/yangzsnews/p/7496660.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值