输出层
① S 型函数
就是我们熟知的 sigmoid 函数
非常适用于二分类问题
②线性激活函数
这里可以近似认为没有使用激活函数
g(z)= z
适用于结果有正有负的情景
比如:预测股市价格
③ReLU函数
g(z)= Max(0,z)
适用于结果只有非负数的情形
比如:预测房价
隐藏层
当前深度学习领域的从业人员
在隐藏层大多数情况下都会使用 ReLU 函数
原因如下:
- ReLU 计算更简单,只需要比较 0 与 z 的大小
- ReLU 只有一个平坦部分,更利于梯度下降算法收敛,并且收敛更快
- ReLU 学习起来会更快