1. 三种函数的表达式
- sigmoid函数【S函数】:
- 表达式
g
(
z
)
=
1
1
+
e
−
z
g(z)=\frac{1}{1+e^{-z}}
g(z)=1+e−z1
- 导数:
g
′
(
z
)
=
g
(
z
)
(
1
−
g
(
z
)
)
g^{'}(z)=g(z)(1-g(z))
g′(z)=g(z)(1−g(z))
- tanh函数【双S函数】:
- 表达式:
f
(
z
)
=
e
z
−
e
−
z
e
z
+
e
−
z
f(z)=\frac{e^z - e^{-z}}{e^z + e^{-z}}
f(z)=ez+e−zez−e−z
- 导数:
f
′
(
z
)
=
1
−
f
(
z
)
2
f^{'}(z)=1-f(z)^2
f′(z)=1−f(z)2
- relu函数【rectified Linear Unit】:
- 表达式:
r
e
l
u
(
z
)
=
m
a
x
(
0
,
z
)
relu(z) = max(0, z)
relu(z)=max(0,z)
- 导数:
g
′
(
z
)
=
0
i
f
z
<
0
e
l
s
e
1
g^{'}(z)= 0 if z < 0 else 1
g′(z)=0ifz<0else1
2. 函数图像
import numpy as np
from matplotlib import pyplot as plt
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def tanh(x):
return (np.exp(x) - np.exp(-x))/(np.exp(x) + np.exp(-x))
def relu(x):
return max(0, x)
x = np.arange(-5, 5, 0.1)
y1 = [sigmoid(_) for _ in x]
y2 = [tanh(_) for _ in x]
y3 = [relu(_) for _ in x]
plt.figure(figsize=(24, 8))
plt.subplot(1, 3, 1)
plt.plot(x, y1, linewidth=3)
plt.grid(True)
plt.title('Sigmoid')
plt.subplot(1, 3, 2)
plt.plot(x, y2, linewidth=3)
plt.grid(True)
plt.title('tanh')
plt.subplot(1, 3, 3)
plt.plot(x, y3, linewidth=3)
plt.grid(True)
plt.title('Relu')
plt.show()
3. 各个激活函数优缺点
- 在隐藏层,tanh函数要优于sigmoid函数,可以认为是sigmoid的平移函数,优势在于其范围位于-1~1之间,数据的平均值为0,有类似于去中心化的效果。
- 在输出层,sigmoid要优于tanh函数。然而在实际应用中,tanh和sigmoid会在端值趋于饱和,导致训练速度变慢【梯度消失的现象】。【正常的逻辑为:端值趋于饱和 —>梯度消失---->训练速度变慢】
- relu的优点【考点】
- 不需要像sigmoid等复杂的运算,只需要一个阈值就可以激活[阈值为0]
- 无饱和现象,明显减轻梯度消失现象;
- 求解导函数容易;
- 能够加快训练速度【减轻了梯度消失,自然提高了训练速度】
- Relu会使一部分神经元变为0,这样就造成了网络的稀疏,并且减少了参数的相互依存关系,缓解了过拟合的发生。