激活函数sigmoid/tanh/relu区别 解释 例子 解释 训练网络做非线性变换时,经常会使用到 sigmoid/tanh/relu 激活函数,来增加网络的表达能力,公式为: sigmoid: y = 1 ( 1 + e − x ) \frac{1}{(1 + e^{-x})} (1+e−x)1 y 取值 (0, 1) tanh: y = ( e x − e − x )