分类目录:《机器学习中的数学》总目录
相关文章:
· 激活函数:基础知识
· 激活函数(一):Sigmoid函数
· 激活函数(二):双曲正切函数(Tanh函数)
· 激活函数(三): 线性整流函数(ReLU函数)
· 激活函数(四):Leaky ReLU函数
· 激活函数(五):ELU函数
· 激活函数(六):Parametric ReLU(PReLU)函数
· 激活函数(七):Softmax函数
· 激活函数(八):Swish函数
· 激活函数(九):Maxout函数
· 激活函数(十):Softplus函数
· 激活函数(十一):Softsign函数
· 激活函数(十二):高斯误差线性单元(GELUs)
Maxout函数来源于ICML上的一篇文献《Maxout Networks》,它可以理解为是神经网络中的一层网络,类似于池化层、卷积层一样。我们也可以把Maxout函数看成是网络的激活函数层,我们假设网络某一层的输入特征向量为:
x
=
(
x
1
,
x
2
,
⋯
,
x
d
)
x=(x_1, x_2, \cdots, x_d)
x=(x1,x2,⋯,xd),也就是我们输入是
d
d
d个神经元。Maxout函数的输出如下:
Maxout
(
x
)
=
max
(
ω
i
x
i
+
b
i
)
\text{Maxout}(x)=\max{(\omega_ix_i+b_i)}
Maxout(x)=max(ωixi+bi)
Maxout函数的更多信息参考论文《Maxout Networks》。