Activation functions 激励函数
Reference:Deep Learning from Coursera, especially Andrew Ng’s team
- 从前,使用sigmod function作为激励函数是常用的选择
- 目前,用tanh function代替sigmod function是很好的选择
- 但是,作为二分类网络最后的一层,还是会选用sigmod
- 观察tanh和sigmod,两者在z值远大于和远小于0时,其导数会很小,导致梯度下降速度很慢
- 因此,出现了ReLU function,以及其变种 Leaky ReLU function
- ReLU function目前应用最为广泛