deepLearning-Logistic Regression 逻辑回归单元

本文详细介绍了逻辑回归单元在神经网络中的应用,包括单个样本和多个样本的情况。讨论了逻辑回归单元的前向传播、反向传播,以及在训练和测试过程中的参数更新。同时强调了在处理多个样本时的数据向量化,并给出了逻辑回归单元训练和实现的关键步骤,以及注意事项,如过度拟合和超参数的选择。
摘要由CSDN通过智能技术生成

一直是跟着cousera上吴恩达的课学下来的,目前到一课程第四周,还没做第四周作业。

除了明显为个人手写并用手机拍摄,以下提供的图片都来自吴恩达老师课件的截图

neural network 神经网络

在后期第四周的课里说明了这个和人脑神经元是没有可对比性的,也就是两者是完全没关系的东西。

这里给出个人理解的定义:神经网络就是由输入,多个层级的隐藏层,输出组成的预测模型。可以通过一个训练组进行训练,测试组进行测试。

对神经网络的理解可以参考电路中逻辑的实现,像是异或等的实现。

吴恩达老师课程里的一组关于神经网络的图片
在这里插入图片描述

Logistic Regression 逻辑回归单元

逻辑回归单元:实际就是神经网络中的一个节点,在前期课程中,这个节点通常是以神经网络中的输出节点为例的。

向前传播:根据输入+等式一直往后推到结果。这实际就是后来更新参数后要做的一个步骤,求得预测结果。

向后传播:根据结果+等式一直往前推到开头,实际就是求得个参数对结果的导数,知道参数对结果的影响大小。

单个样本时

在这里插入图片描述

涉及到的公式
在这里插入图片描述

当只有一个样本时,也就是上述 x ( i ) x^{(i)} x(i)时, x x x维度为 ( n , 1 ) (n,1) (n,1)

而在逻辑回归单元也只涉及到一个节点的计算,故此时 w w w维度应为 ( n , 1 ) (n,1) (n,1),故转置矩阵 w T w^{T} wT维度为 ( 1 , n ) (1,n) (1,n)

此时, z z z以及 y ^ \hat{y} y^的维度将是 ( 1 , 1 ) (1,1) (1,1)也就是我们想要的唯一的结果,但应注意到此时可能还需要对 y ^ \hat{y} y^进行处理才能是我们要的预测值。比如:判断一张图片是不是猫的时候, y ^ \hat{y} y

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值