深度学习与神经网络-吴恩达(Part1Week2)-Logistic Regression编程实现(python)

这篇博客介绍了如何使用Python实现吴恩达课程中的Logistic Regression,包括网络结构、前向传播、反向传播、向量化优化及数据标准化。博主提供了完整的训练和测试代码,并分享了训练数据加载函数。
摘要由CSDN通过智能技术生成

一、Logistic Regression 基本网络结构



可以看到 Logistic Regression的网络结构相对比较简单,主要包括:输入层(用于单样本数据x1,x2,x3...的输入)和输出层(单个神经元),输入层和输出层之间是有权重连接的,这里相当于对输入数据做一个线性变换进而得到输出层的输入。值得注意的是,输出层是包含激活函数的,对于Logistic Regression其激活函数一般是sigmoid函数,形式为g(z)=1/(1+exp(-z)),用于对神经元的输入数据进行非线性映射,将最终结果的值映射到合理的范围内。



二、Forward Propagation——损失函数

Logistic Regression一般包括两个过程,正向传播(Forward propagation)和反馈传播(Backward propagation)
正向传播即根据输入数据逐步计算初始的z1,a1以及衡量最终结果好坏的损失函数L(a1,y)。上图中,x1,x2表示单个样本的特征属性,w1,w2表示每个输入与神经元之间的权重,b表示神经元的偏置(bias),z1表示神经元的输入,a1表示z1经过非线性映射后的结果。
具体过程如下图所示:



评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值