激活函数:
激活函数的作用是什么:
引入非线性。如果没有激活函数,模型的输出空间是线性的。
常见的激活函数有哪些:
sigmoid激活函数:
sigmoid函数缺点:
当输入比较大的时候,梯度很快接近0。在网络结构较深,传过来的梯度较大的时候容易出现梯度消失。
进行指数运算,速度较慢。收敛也比较慢。
tanh函数,值域在[-1,1]之间:
均值为0,在特征相差较大的时候交过较好。实际应用强于sigmoid。
Relu激活函数:|
优点:
Relu得到的SGD收敛比sigmoid快。
缺点:
容易出现神经元坏死。当一个非常大的梯度流过神经元以后,容易导致失活。
所以训练时候需要使用小一点的学习率。
解决:
leakRelu激活函数。
对比sigmoid类函数主要变化是:
1)单侧抑制
2)相对宽阔的兴奋边界
3)稀疏激活性。