在学习完了上一节较为简单的神经网络(超级简单!吴恩达deeplearning.ai:神经网络中的网络层之后,这一节我们来看看更加复杂的神经网络,同时能够让我们使用的符号更加清晰和具体。
更加复杂的神经网络
先上图:
这张图将作为我们本节的一个更加复杂的神经网络图像的例子,如果你看过我前面的博客,那么很明显,这个神经网络拥有四层(不考虑第零层,也就是输入层),其中,第1,2,3层也被叫做隐藏层,第4层被叫做最终输出层。
详细看看第三层
让我们放大第三层:
这三个公式在上一节已经详细说过了,这里简单概括下:第三层接收了第二层输出的激活值
a
[
2
]
a^{[2]}
a[2],并且三个神经元分别计算出其对应的值
a
1
,
a
2
,
a
3
a_1,a_2,a_3
a1,a2,a3,从而构成了第三层的激活值
a
[
3
]
a^{[3]}
a[3]
图中的w和b右上角并未标记,我们可以加上[3]:
一个简单的问题
视频中还要求你能够填出上图方括号中的内容,我觉得就很简单了,直接给出答案按:
总结为公式就是:
a
j
[
l
]
=
g
(
w
j
[
l
]
⋅
a
[
l
−
1
]
+
b
j
[
l
]
)
a_j^{[l]}=g(w_j^{[l]}\cdot a^{[l-1]}+b_j^{[l]})
aj[l]=g(wj[l]⋅a[l−1]+bj[l])
其中,g()为sigmoid函数,也叫做激活函数,字母的右上角标l代表的是第l层,右下角标j代表的是第l层的第j个神经元。
为了使所有的符号一致,我们可以给输入向量x一个新名字
a
[
0
]
a^{[0]}
a[0],这样就与后面其他的激活值一致了。
如果有不能理解的地方,还是看这篇博客:
超级简单!吴恩达deeplearning.ai:神经网络中的网络层、
在学完这一节之后,你应该就知道如何在已知上一层隐藏层的基础上计算下一层隐藏层的激活值了,实际上这一节的内容和上一节没有本质的区别,但是大佬开的这毕竟是小白课,讲的还是比较细节的。既然学完了神经网络如何推理的,我们一定想知道如何真的用神经网络进行推理吧!
点点关注O(∩_∩)O,下一节博客将介绍到有关内容哦。