神经网络概览 (Neural Networks Overview)
本周你将学习如何实现一个神经网络。在我们深入学习具体技术之前,我希望快速的带你预览一下本周你将会学到的东西。如果这个视频中的某些细节你没有看懂你也不用担心,我们将在后面的几个视频中深入讨论技术细节。
现在我们开始快速浏览一下如何实现神经网络。上周我们讨论了逻辑回归,我们了解了这个模型如何与下面公式建立联系。
首先你需要输入特征,参数和,用来计算,用来计算,我们用来表示,之后你可以计算损失函数。
神经网络看起来是如下这个样子。正如我之前已经提到过,你可以把许多sigmoid单元堆叠起来形成一个神经网络。对于下图的节点,对应两个计算步骤:
1、计算z 2、计算a
在上面神经网络的图片对应的3个节点,首先计算第一层网络中的各个节点相关的数,接着计算 ,在计算下一层网络同理; 我们会使用符号表示第层网络中节点相关的数,这些节点的集合被称为第层网络。这样可以保证不会和我们之前用来表示单个的训练样本的(即我们使用表示第个训练样本)混淆;整个计算过程,公式如下图:
类似逻辑回归,去计算,这里需要用去计算。之后你会用另一个线性方程计算,再用去计算得到 。那最后的 就是整个神经网络的最后输出,同时我也会用来表示神经网络的输出。
学会这其中的细节: 从一个逻辑回归中,我们先计算得到,后计算得到,在神经网络中,我们要做很多次反复计算和,最后计算损失函数。
你应该记得逻辑回归中,有一些从后向前的计算用来计算导数和。同样,在神经网络中我们也有从后向前的计算,看起来就像这样,最后会计算,计算出来之后,然后计算等。(如下图的红色箭头方向)
现在你大概了解了一下什么是神经网络,基于逻辑回归重复使用了两次该模型得到上述例子的神经网络。我清楚这里面多了很多新符号和细节,如果没有理解也不用担心,在接下来的视频中我们会仔细讨论具体细节。
那么,下一个视频讲述神经网络的表示。