浅层神经网络 1. 激活函数 1. 激活函数 sigmoid 激活函数:除了输出层是一个二分类问题基本不会用它。tanh 激活函数:tanh 是非常优秀的,几乎适合所有场合。ReLu 激活函数:最常用的默认函数,如果不确定用哪个激活函数,就使用 ReLu 或者 Leaky ReLu。