参考:
常见激活函数的介绍和总结
https://www.cnblogs.com/mq0036/p/14281829.html
深度学习激活函数们
https://www.cnblogs.com/CJT-blog/p/10421822.html
激活函数(ReLU, Swish, Maxout)等
https://www.cnblogs.com/makefile/p/activation-function.html
激活函数
https://zhuanlan.zhihu.com/p/47030955
也谈激活函数Sigmoid,Tanh,ReLu,softplus,softmax
https://zhuanlan.zhihu.com/p/48776056
「DL」到底什么是激活函数?理解起来很简单
http://www.360doc.com/content/20/0806/21/99071_928913132.shtml
深度学习的激活函数 :sigmoid、tanh、ReLU 、Leaky Relu、RReLU、softsign 、softplus、GELU
https://my.oschina.net/u/4410118/blog/3345040
AlexNet:开启卷积神经网络的新时代
https://www.dazhuanlan.com/2020/03/26/5e7c9b88bd2c2/