1.熟悉各收敛函数:
通常 我们知道 因为relu 收敛效果要比sigmod 与tanh 要好,所以在cnn中常用relu,所以 其实 对于输出o=relu(wx+b) ,
sigmod函数的数学公式为: Θ(x)=11+e−x 函数取值范围(0,1),
ReLU(校正线性单元:Rectified Linear Unit)激活函数
tanh(x)函数的数学公式为(函数取值范围(-1,1),):t
1.熟悉各收敛函数:
通常 我们知道 因为relu 收敛效果要比sigmod 与tanh 要好,所以在cnn中常用relu,所以 其实 对于输出o=relu(wx+b) ,
sigmod函数的数学公式为: Θ(x)=11+e−x 函数取值范围(0,1),
tanh(x)函数的数学公式为(函数取值范围(-1,1),):t