机器学习-神经网络之激活函数(Activation Function)
日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:
为什么需要激活函数?
激活函数都有哪些?都长什么样?有哪些优缺点?
怎么选用激活函数?
本文正是基于这些问题展开的,欢迎批评指正!
(此图并没有什么卵用,纯属为了装x …)Why use activation functions?激活函数通常有如下一些性质:
非线性: 当激
转载
2017-10-26 14:39:48 ·
645 阅读 ·
0 评论