3.1 神经网络概览-深度学习-Stanford吴恩达教授

神经网络概览 (Neural Networks Overview)

本周你将学习如何实现一个神经网络。在我们深入学习具体技术之前,我希望快速的带你预览一下本周你将会学到的东西。如果这个视频中的某些细节你没有看懂你也不用担心,我们将在后面的几个视频中深入讨论技术细节。

现在我们开始快速浏览一下如何实现神经网络。上周我们讨论了逻辑回归,我们了解了这个模型如何与下面公式建立联系。

 首先你需要输入特征x,参数wb,用来计算z,用z来计算a,我们用a来表示\hat{y},之后你可以计算损失函数L

神经网络看起来是如下这个样子。正如我之前已经提到过,你可以把许多sigmoid单元堆叠起来形成一个神经网络。对于下图的节点,对应两个计算步骤:

1、计算z                2、计算a


在这里插入图片描述

 在上面神经网络的图片对应的3个节点,首先计算第一层网络中的各个节点相关的数z^{[1]},接着计算 a^{[1]},在计算下一层网络同理; 我们会使用符号^{[m]}表示第m层网络中节点相关的数,这些节点的集合被称为第m层网络。这样可以保证不会和我们之前用来表示单个的训练样本的^{(i)}(即我们使用表示第i个训练样本)混淆;整个计算过程,公式如下图:

类似逻辑回归,去计算z^{[1]},这里需要用z^{[1]}去计算a^{[1]}。之后你会用另一个线性方程计算z^{[2]},再用z^{[2]}去计算得到a^{[2]}  。那最后的a^{[2]} 就是整个神经网络的最后输出,同时我也会用\hat{y}来表示神经网络的输出。       

学会这其中的细节: 从一个逻辑回归中,我们先计算得到z,后计算得到a,在神经网络中,我们要做很多次反复计算za,最后计算损失函数。

你应该记得逻辑回归中,有一些从后向前的计算用来计算导数dadz。同样,在神经网络中我们也有从后向前的计算,看起来就像这样,最后会计算dz^{[2]},da^{[2]},计算出来之后,然后计算dw^{[2]},db^{[2]}等。(如下图的红色箭头方向)

现在你大概了解了一下什么是神经网络,基于逻辑回归重复使用了两次该模型得到上述例子的神经网络。我清楚这里面多了很多新符号和细节,如果没有理解也不用担心,在接下来的视频中我们会仔细讨论具体细节。

那么,下一个视频讲述神经网络的表示。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值