神经网络是用来解决非线性(比如X1*X2这种非线性问题)还有特征个数很多的情况,有的时候比如g(θ0*x0+θ1*x1++θ2*x2+θ3*x3+θ4*x4+θ5*x1*x2+θ6*x1*x3+...)这么各种项出现,线性回归法就不适合了。
神经网络对于输入的特征是逐步经过权重的修饰然后参与神经元的激励函数(也叫做S激励函数或逻辑激励函数,是sigmoid函数)的运算,最后输出的激励值是下一层的输入(激励函数可以是sigmoid函数,也是假设函数的一种)。
除了输入层和输出层,剩下的layer都是隐藏层。
向前传播就是从输入层,到隐藏层再到输出层的,运算方向。
权重weights或者叫做参数,就是θ的值。
坚持下去就是胜利!