深度学习-CNN入门

对于CNN的理解
按照过程来理解:

1. 卷积,因为特征往往具有局部性,所以我们取消了第一层和第二层之间的全连接,改之为部分连接,即某些神经元只连接着某些像素点。这能够有效地减少我们的参数数量。

而在这个过程中,我们还使用了权值共享这一个方法,其意思是,对于一张图片,其特征萃取,在全局中的任何局部应该都是可取的,也就是说,萃取某一个特征,我们可以对每一个局部都做同样的事情,因此,按照卷积的思想,我们让第二层的每一个神经元,都负责某一个具体的图像局部,而且这些个神经元,其与第一层的连接的参数,都是一样的,这个权值共享的方法有利于加快训练过程,减少训练样本的需求,减少过拟合的情况。

当然,这个时候或许你会问,那所有的神经元都拥有一样的参数,那对一张图片,我们岂不是一直都在提取它的某一个特定的特征吗?我的回答是:是的,所以我们把这些拥有一样参数的神经元,汇集为一个平面(可以考虑为只是把它们设置为一体),如果我们针对不同的特征,设置不同的神经元平面(在第二层),也就是如果我们希望提取32个特征(也可以称为通道),那么我们在第二层处就要设置32个神经元平面,平面内的神经元拥有一样的参数。

2. 池化,池化这个概念是如何提出来的呢?是因为通过前面的步骤,我们仍然获得了过量的特征,这对于后期分类器的训练十分不利,因此,我们使用一种称为池化的操作,可以理解为把几个特征聚集为一个特征,从而减少特征的数量,而且通过这个方法,还降低了过拟合的可能性。举个栗子就是2*2的特征,我们取其中最大的那个或者其4个的平均值,而得到一个特征,所以特征数量就减少为原来的1/4.

这就是CNN的第一,第二步,下面的步骤我还会继续更新,自勉&&共勉!~


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值