转载https://blog.csdn.net/GrayOnDream/article/details/102955297
文章目录
-
- 一、简介
- 二、激活函数种类
-
- 1、恒等函数
- 2、单位阶跃函数
- 3、逻辑函数
- 4、双曲正切函数
- 5、反正切函数
- 6、Softsign函数
- 7、反平方根函数(ISRU)
- 8、线性整流函数(ReLU)
- 9、带泄露线性整流函数(Leaky ReLU)
- 10、参数化线性整流函数(PReLU)
- 11、带泄露随机线性整流函数(RReLU)
- 12、指数线性函数(ELU)
- 13、扩展指数线性函数(SELU)
- 14、S型线性整流激活函数(SReLU)
- 15、反平方根线性函数(ISRLU)
- 16、自适应分段线性函数(APL)
- 17、SoftPlus函数
- 18、弯曲恒等函数
- 19、Sigmoid Weighted Liner Unit(SiLU)
- 20、SoftExponential
- 21、正弦函数
- 22、Sinc函数
- 23、高斯函数
一、简介
一个节点的激活函数(Activation Function)定义了该节点在给定的输入或输入的集合下的输出。神经网络中的激活函数用来提升网络的非线性(只有非线性的激活函数才允许网络计算非平凡问题),以增强网络的表征能力。对激活函数的一般要求是:必须非常数、有界、单调递增并且连续,并且可导。
在实际选择激活函数时并不会严格要求可导,只需要激活函数几乎在所有点可导即可,即在个别点不可导是可以接受的。另外,其导数尽可能的大可以帮助加速训练神经网络,否则导数过小会导致网络无法继续训练下去。