机器学习笔记4 - 神经网络
线性回归和逻辑回归都有一个缺点,当特征太多,计算负荷会很大,
引入神经网络
在神经网络中,参数称为权重(weight)
其中 x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3是输入单元, a 1 , a 2 , a 3 a_1,a_2,a_3 a1,a2,a3是中间单元,负责处理数据传递到下一层,最后是输出单元,其用来计算 h θ ( x ) h_\theta(x) hθ(x)。
在一个三层网络中,第一层成为输入层( Input Layer),最后一层称为输出层( Output Layer),中间一层成为隐藏层 (Hidden Layers)。我们为每一层都增加一个偏置单元(bias unit),得到如下图:
a i ( j ) a^{(j)}_i ai(j)表示第 j j j层的第 i i i个激活单元。 θ ( j ) \theta^{(j)} θ(j)代表从第 j j j层映射到第 j + 1 j+1 j+1层时的权重矩阵,比如 θ ( 1 ) \theta^{(1)} θ(1)表示从第一层映射到第二层的权重矩阵。该矩阵的大小为:以第 j + 1 j+1 j+1层的激活单元数量为