【3.5 向量化实现的解释】
对不同训练样向量化的神经网络,四个矩阵的行表示神经元个数,列表示样本数目m
到目前为止,我们使用的激活函数只有函数
有很多种激活函数,sigma函数知识其中的一种选择
【3.6 激活函数】
tanh相当于平移,数据中心化,使数据平均值更接近0。
隐藏层更适合用tanh,输出层(如二分类问题:是为1,非为0)更适合用。
共同的缺点:z非常大或非常小的时候,函数图像的斜率很接近
对不同训练样向量化的神经网络,四个矩阵的行表示神经元个数,列表示样本数目m
到目前为止,我们使用的激活函数只有函数
有很多种激活函数,sigma函数知识其中的一种选择
tanh相当于平移,数据中心化,使数据平均值更接近0。
隐藏层更适合用tanh,输出层(如二分类问题:是为1,非为0)更适合用。
共同的缺点:z非常大或非常小的时候,函数图像的斜率很接近