什么是深度学习网络,我们已经学过了逻辑回归,并且见过了单隐层神经网络,下图是一个双隐层神经网络,以及一个五隐层的神经网络的例子。
我们说逻辑回归是一个浅层模型,浅层或是深层是一个程度的问题,要记住当我们数神经网络的层数的时候不能把输入层数进去,只算上隐层的数量和输出层,技术上来说逻辑回归模型是单层神经网络。
有些函数只有非常深层的神经网络能够学习,而浅一些的模型通常无法学习。
下图是一个4层的神经网络,隐层中的单元数目分别为五、五、三,然后还有一个输出单元。我们要用的符号是大写的L,该符号表示神经网络的层数,这里L的值为4,也就是神经网络的层数为4层。然后我们用
n
[
l
]
n^{[l]}
n[l]表示第
l
l
l层上的单元数量。当我们把输入层标记为第0层。符号
a
[
l
]
a^{[l]}
a[l]表示第
l
l
l层中的激活函数,符号
w
[
l
]
w^{[l]}
w[l]表示在
a
[
l
]
a^{[l]}
a[l]中计算
z
[
l
]
z^{[l]}
z[l]的权重,
z
[
l
]
z^{[l]}
z[l]方程里的
b
[
l
]
b^{[l]}
b[l]也一样。
最后总结一下符号约定,输入特征用
x
x
x表示,
x
x
x也是第0层的激活函数,那么
a
[
0
]
=
x
a^{[0]}=x
a[0]=x,最后一层的激活函数
a
[
l
]
=
y
^
a^{[l]}=\hat{y}
a[l]=y^,也就是说
a
[
l
]
a^{[l]}
a[l]等于预测输出,