2.9 Logistic 回归的梯度下降法-深度学习-Stanford吴恩达教授

Logistic 回归的梯度下降法 (Logistic Regression Gradient Descent)

本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。在本节视频中,我将使用计算图对梯度下降算法进行计算。我必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。但是,我认为以这个例子作为开始来讲解,可以使你更好的理解背后的思想。从而在讨论神经网络时,你可以更深刻而全面地理解神经网络。接下来让我们开始学习逻辑回归的梯度下降算法。

回顾之前我们建立了如下图的逻辑回归方程的公式定义:

 假设样本有两个特征x_{1},x_{2},为了计算z,还需要输入参数w_{1},w_{2},b,因此z的公式为z = w_{1}x_{1} + w_{2}x_{2} +b。接着计算\hat{y}\hat{y} = a =\sigma (z) 。最后计算L(a,y)。在逻辑回归中我们要做的是修改参数wb,来减少损失函数L 。

之前讲前向传播的步骤中已经说明了如何计算单个样本的损失函数L。现在来讲如何反向计算导数?如下图:

要计算关于损失函数L的导数,反向传播时,首先要做的是损失函数L(a,y)关于a的导数,在编写代码时,你只需要用da来表示\frac{dL(a,y)}{da}。(下面都是简写,如da)然后根据求导法则,得到\frac{dL(a,y)}{da}如下图(此处应该是以e为底):


 现在已经算出了da,你可以继续往回算出dz(同样表示\frac{dL}{dz}),求导公式算得:dz = \frac{dL}{dz} = \frac{dL}{da} \cdot \frac{da}{dz} = a-y

反向传播的最后一步也就是算出你需要改变w,b多少?特别地,可以算出L对 w_{1},w_{2} 的导数 ,如下:

\frac{\partial L }{\partial w_1} = dw_{1} = x_{1} \cdot dz

\frac{\partial L }{\partial w_2} = dw_{2} = x_{2} \cdot dz

db = dz

所以如果你要对于一个例子进行梯度下降,你需要做:用公式算出dz,然后算出dw_{1},dw_{2},db,然后进行更新,w_{1} := w_{1} - \alpha \cdot dw_{1} ;w_{2} := w_{2} - \alpha \cdot dw_{2} ; b := b - \alpha \cdot db

在这里插入图片描述

现在你已经知道了怎样计算导数,并且实现针对单个训练样本的逻辑回归的梯度下降算法。但训练一个逻辑回归模型,你不止有一个样本,而是有m个。下节课我们将这些思想应用到整个训练样本集中,而不仅仅只是单个样本上。 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
logistic回归中,梯度下降法是一种常用的优化算法,用于最小化损失函数。梯度下降法的目标是通过迭代更新模型参数,使得损失函数达到最小值。 具体来说,在二项逻辑斯蒂回归中,损失函数通常使用对数似然损失函数。对于每个样本,损失函数的计算可以通过求解负对数似然函数得到。然后,通过计算损失函数对模型参数的偏导数,即梯度,来更新模型参数。 在梯度下降法中,每次迭代都会根据当前参数的梯度方向来更新参数。具体的更新规则可以使用学习率来控制每次迭代的步长。通过不断迭代更新参数,最终可以找到损失函数的最小值,从而得到最优的模型参数。 需要注意的是,在logistic回归中,梯度下降法可以使用批量梯度下降、随机梯度下降或者小批量梯度下降等不同的变种。每种变种都有其优缺点,选择合适的梯度下降法取决于具体的问题和数据集。 总结起来,logistic回归中的梯度下降法是一种通过迭代更新模型参数来最小化损失函数的优化算法。它是一种常用且有效的方法,用于训练logistic回归模型。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [逻辑斯蒂回归以及它的梯度下降法](https://blog.csdn.net/Alter__/article/details/109449043)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [[飞桨机器学习]逻辑回归(六种梯度下降方式)](https://blog.csdn.net/chenqianhe2/article/details/115009758)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值