【机器学习】推导逻辑回归反向传播

文章介绍了逻辑回归模型,特别是其在简单神经网络中的应用。正向传播涉及将输入通过权重w1、w2和偏置b进行计算,然后通过sigmoid激活函数得到预测值a。损失函数(交叉熵)衡量预测值与真实值的差距。反向传播则利用梯度下降法调整参数,通过计算损失函数对各参数的偏导数来更新w1、w2和b,以最小化损失函数并优化模型性能。
摘要由CSDN通过智能技术生成

1.逻辑回归向前传播

        上图为简单神经网络的架构图,向网络中输入像素值,输出0或者 1。整个网络只有一层,也叫Logistic Regression。根据上图的正向传播流程,可以把前向传播的计算公式列出来,为了简便运算,公式中只涉及了w1、w2、b三个变量。

        1)定义计算公式

         2)经过sigmod

        3) 交叉熵损失

        其中y为已知的真实值,a为预测值,如果预测值越接近真实值,那么对应损失的函数将越接近0。 逻辑回归的过程就是不断学习、不断调整w1、w2、b三个变量,使得损失函数的值尽可能的接近0,使得预测值尽可能接近真实值。

 2.反向传播

        现在的计算目标已经变为:不断的调整w1、w2、b三个变量使得损失函数尽可能的小。以下是优化目标,目前常用的优化方法是梯度下降法。

         参数的更新公式如下所示:

        推导背后的原理就是对多元函数的链式求导数,以对w1更新的反向传播流程为例,过程如下所示:

        1)损失函数L(a,y)w1求偏导公式

         2)损失函数L(a,y)a求偏导

        3) az求偏导

         4)zw1求偏导

        将2)、3)4)中的计算结果带入到 1)中可以得到损失函数L(a,y)w1求偏导计算结果,计算结果如下所示。

         5)损失函数L(a,y)w1求偏导计算结果

                

          L(a,y)w2求偏导计算结果如下

          L(a,y)b求偏导计算结果如下

3.手动推导过程 

        如下是手动推导过程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值