![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
卷积神经网络
AlienGMX
这个作者很懒,什么都没留下…
展开
-
神奇的卷积神经网络(四)
Convolutional Neural Networks (卷积神经网络)一:ReLu激活函数ReLu的全称是Rectified layer units,它是一层使用非饱和激活函数的神经元。神经网络通常使用sigmoid 和 tanh 作为非线性激活函数,它确实比早期的线性激活函数有好的多的效果。但在深度神经网络中,如果不使用pre-traning,会导致gradient原创 2015-10-17 11:48:39 · 3430 阅读 · 0 评论 -
神奇的卷积神经网络(五)总结
Convolutional Neural Networks (卷积神经网络)前四篇我们已经详细的介绍了卷积神经网络的结构与组成,这篇我们将对卷积神经网络做一个总结,内含各种技巧介绍和调参经验,不要错过哦!概念总结:1. Deep Learning是全部深度学习算法的总称,卷积神经网络是深度学习算法在图像处理领域的一个应用。2. Fully C原创 2015-10-22 09:34:02 · 2772 阅读 · 1 评论 -
神奇的卷积神经网络(一)
Convolutional Neural Networks (卷积神经网络)卷积神经网络是一种特殊的多层神经网络,它是deep learning中的一个算法,现在主要应用在图像处理领域中。既然说它是deep learning中的一个算法,那么就需要有大量的数据来支持,作为一个深度的神经网络,参数动辄百万以上,如果样本数过小很容易造成overfitting。卷积神经网络可以自主的从原始的输入原创 2015-10-14 12:44:59 · 8833 阅读 · 0 评论 -
神奇的卷积神经网络(二)
Convolutional Neural Networks (卷积神经网络)上篇,我们介绍了卷积神经网络的两大杀器:局部感知野 和 权值共享。这篇我将会继续介绍卷积神经网络的结构:多卷积核 和 池化。一:多卷积核在说到权值共享的时候,我们说到一个卷积核(滤波器)肯定是无法充分的提取图像中的特征。那么怎么办呢?一个卷积核可以提取一种特征,我们可以很自然的想到多个卷积核就可以提取多原创 2015-10-15 12:08:23 · 2170 阅读 · 0 评论 -
神奇的卷积神经网络(三)
Convolutional Neural Networks (卷积神经网络)前两篇我们已经对卷积神经网络的结构,做了详细的介绍。小小的总结一下:原始图像经过多个卷积核卷积得到多个卷积特征,再经过池化层池化,得到池化特征,通常我们还会把池化特征经过一个激活函数进行非线性变化再输入到我们的分类器中。现在deep learning中大多都使用Relu这个激活函数,关于Relu我们稍后再谈。下面这个流原创 2015-10-16 06:38:13 · 1621 阅读 · 0 评论