原理
在万事开头难那篇文中,介绍了一个初级的一层神经网,这是在最初级上面的follow up 版。
增强的点有:
1. Bernard新提出了cost function
2. weights的更新基于线性方程(linear activation function),而不是之前perceptron中的离散方程(unit step function)
Cost Function
Sum of Square Errors(SSE)
J(w)=12∑i(yi
在万事开头难那篇文中,介绍了一个初级的一层神经网,这是在最初级上面的follow up 版。
增强的点有:
1. Bernard新提出了cost function
2. weights的更新基于线性方程(linear activation function),而不是之前perceptron中的离散方程(unit step function)
Sum of Square Errors(SSE)
J(w)=12∑i(yi