今天学习了http://blog.csdn.net/stdcoutzyx/article/details/41596663关于深度学习卷积神经网络部分,以下为在其基础上个人总结和感悟:
一、深度学习之CNN
深度学习所包含的方法很多,如BP(backpropagation)、前向传播(Feedforewar Propagation)、CNN(Convolution Neural Network)等。现在我们默认的深度学习方法为CNN。这个方法由Facebook的AI实验室Lecun等人提出来,主要应用于语音识别和图像分类方向。
二、神经网络
如图所示,输入为x1、x2、x3经过隐层L2得出最后输出。其中第二层的a1、a2、a3都是由第一层各个输入加权得到的。神经网络的训练类似于logistic(不清楚这是什么),训练过程也是对各个隐层节点进行权值的调整。一般采用链式求导法则和梯度下降的原则。又称为反向传播算法(BP)。
三、卷积神经网络(CNN)
具体可以参见lenet的网址:http://deeplearning.net/tutorial/lenet.html 有关于卷积,池化(pooling的具体教程)
卷积神经网络又称为多层感知器(Multi-Layer Perception),卷积神经网络模拟了Hubel和Wiesel等早期对猫