![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
小浪沐渔_coding
这个作者很懒,什么都没留下…
展开
-
激活函数总结
Activation Function:线性转非线性sigmoid: sigmoid = 1 / (1 + e^(-x)) 缺点: 容易出现梯度消失 gradient vanishing 函数输出并不是zero-centered 幂运算相对来讲比较耗时 tanh函数:tanh x = ( e^x - e^(-x) ) / (e^x + e^(-x))解决了zero-centered 问题,gradient vanishing和耗时问题依然存在.原创 2020-05-15 18:08:17 · 281 阅读 · 0 评论 -
池化方法-pooling操作
转自博文池化方法总结(Pooling)http://demo.netfoucs.com/danieljianfeng/article/details/42433475在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。为什么可以通过降低维度呢?因为图像具有一种“静态性”的属性,这也就转载 2015-10-14 10:17:43 · 2873 阅读 · 0 评论