关于cnn神经网络的学习报告
Issue 1卷积神经网络的流程
我的理解:这个网络和一般的神经网络差不多,不同的地方我觉得有两个,第一,它多了网络的层数,增加层数原因在于,它提高了网络的学习程度。第二,它提取特征的时候不单单使用了sigmoid 函数而是采用了一个卷积核去做卷积并且通过局部感受整体和权值共享的机制将计算量变得不再这么复杂。流程如下:
输入的数据集可以为原始图像,结果集就是图像的类别。
内部的网络由多层网络构成,多层网络主要为卷积层和采样层,卷积层的作用是提取数据特征(与图像锐化有关的算法类似)卷积核作为此网络学习的权重,在每一轮学习中得到更新。采样层起到了减少计算量并且保留有用信息的工具。
输出为结果向量,我理解为是不同类别的概率,选择概率最大的类别作为分类的结果(类似于softmax)。
Issue 2卷积神经网络的卷积过程
我的理解:这个过程是卷积神经网络的核心过程.
对于数字图像的处理中,卷积可以作为一种信息提取方式(类似于图像锐化)。用不同的卷积将图像映射到feature map中去。
卷积的公式和图解如下:
在实际应用中,在医学上发现对于图像的感知有部分感知整体的理论,因此卷积核的大小往往不是整个图像区域,而是小于图像的区域。在toolbox里具体的作法是在初始的卷积核里面随机参数作为卷积核,之后通过BP算法,计算残差,之后对卷积核的卷积参数进行更新。
在这里有一点需要关注,就是我们利用小于图像大小的卷积核去对整个图像做卷积。那么一个卷积核的所有参数同时作用于整个图像,这就是所谓的权值共享机制。因为有这一个机制,计算量大大减少了。