为什么还需要神经网络?
线性回归和逻辑回归确实可以解决大量的监督学习问题,但是在非线性多项式假设方程中,随着样本集特征数的增多,参数会成指数级的增长,给算法带来几乎不显示的巨大计算压力,此时,我们需要引入神经网络
最典型的神经网络问题就是计算机视觉,每个像素都是一个特征量,组成多项式后参数可以达到百万级别,线性回归和逻辑回归用于解决此类问题已经不现实了
神经网络模型
模型展示
在神经系统中,神经元接受其它细胞传递的信息,然后以电脉冲的形式向目的地提供反馈。依此我们产生类似的神经网络模型:
[ x 0 x 1 x 2 ] T → [ ] → h θ ( x ) \begin{bmatrix}x_0 \newline x_1 \newline x_2 \newline \end{bmatrix}^T\rightarrow\begin{bmatrix}\ \ \ \newline \end{bmatrix}\rightarrow h_\theta(x) [x0x1x2]T→[ ]→hθ(x)
- 输入数据层称为输入层,最左端
- 输出数据层称为输出层,最右端
- 中间级称为隐藏层,中间
如:
[ x 0 x 1 x 2 x 3 ] → [ a 1 ( 2 ) a 2 ( 2 ) a 3 ( 2 ) ] → h θ ( x ) \begin{bmatrix}x_0 \\ x_1 \\ x_2 \\x_3\end{bmatrix}\rightarrow\begin{bmatrix}a_1^{(2)} \\ a_2^{(2)} \\ a_3^{(2)} \\\end{bmatrix}\rightarrow h_\theta(x) ⎣⎢