CNN 简述

CNN 简述



(1) 卷积:

对图像元素的矩阵变换,是提取图像特征的方法,多种卷积核可以提取多种特征。一个卷积核覆盖的原始图像的范围叫做感受野(权值共享)。一次卷积运算(哪怕是多个卷积核)提取的特征往往是局部的,难以提取出比较全局的特征,因此需要在一层卷积基础上继续做卷积计算 ,这也就是多层卷积。


(2) 池化:

降维的方法,按照卷积计算得出的特征向量维度大的惊人,不但会带来非常大的计算量,而且容易出现过拟合,解决过拟合的办法就是让模型尽量“泛化”,也就是再“模糊”一点,那么一种方法就是把图像中局部区域的特征做一个平滑压缩处理,这源于局部图像一些特征的相似性(即局部相关性原理)。


(3) 全连接:softmax分类

训练过程: 卷积核中的因子(×1或×0)其实就是需要学习的参数,也就是卷积核矩阵元素的值就是参数值。一个特征如果有9个值,1000个特征就有900个值,再加上多个层,需要学习的参数还是比较多的。


(4) CNN 的优点:

CNN 使用范围是具有局部空间相关性的数据,比如图像,自然语言,语音

1. 局部连接:可以提取局部特征。

2. 权值共享:减少参数数量,因此降低训练难度(空间、时间消耗都少了)。 可以完全共享,也可以局部共享(比如对人脸,眼睛鼻子嘴由于位置和样式相对固定,可以用和脸部不一样的卷积核)

3. 降维:通过池化或卷积stride实现。 4.多层次结构:将低层次的局部特征组合成为较高层次的特征。不同层级的特征可以对应不同任务。

 

(5) CNN 与DNN的区别:

DNN 的输入是向量形式,并未考虑到平面的结构信息,在图像和NLP领域这一结构信息尤为重要,例如识别图像中的数字,同一数字与所在位置无关(换句话说任一位置的权重都应相同),CNN的输入可以是tensor,例如二维矩阵,通过filter获得局部特征,较好的保留了平面结构信息。

filter 尺寸计算:Feature Map的尺寸等于 (input_size+2*padding_size filter_size)/stride+1

 

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/29829936/viewspace-2212853/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/29829936/viewspace-2212853/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值