本章节主要讲有关神经网络的三个重要部分:激活函数、损失函数、梯度下降。其余学习内容参考:TensorFlow 学习目录。
目录
5. ReLU变种函数:Noisy relus、Leaky relus、Elus
1. 均值平方差(Mean Squared Error,MSE)
一、激活函数
引入激活函数的目的是用来加入非线性因素,以解决线性模型表达不足的问题,在整个神经网络中起到了重要的作用。因为神经网络的数学基础是处处可微的,所以选取的激活函数,要保证输入和输出也是可微的。
1. Sigmoid函数
<1>函数表达式
<2>函数曲线