理解深度学习中的卷积

卷积神经网络,即:卷积(特征提取)+神经网络(分类器)

传统的特征工程根据个人经验将能想到的特征全部提取出来,用这部分特征数据训练分类器。试错方式。

卷积神经网络用训练数据找最好的特征。怎么找???

好的特征(feature map):应是稀疏的以及包含典型的局部信息。feature map与原图很接近,说明它没有学到什么特征;或者它几乎是一个纯色的图,说明它太过稀疏,可能是我们feature map数太多了(feature_map数太多也反映了卷积核太小)

卷积为什么能够提取图像特征?(以垂直特征为例)

 

 

为什么使用卷积?

1、权值共享

一个卷积核在图像中的一部分有效,在其他部分同样有效。比如:可以提取图像不同部位的边缘特征。

2、稀疏连接

相对于对整幅图像整体进行卷积操作,卷积核事实上是作用于图像的一部分,然后遍历整幅图。

3、平移不变性

当图像中的目标位置改变后,在同一个卷积核作用下,得到的特征值是相同的。

卷积的三种操作

1、valid 操作,滑动步长为S,图片大小为N1xN1,卷积核大小为N2xN2,卷积后图像大小:(N1-N2)/S+1 x (N1-N2)/S+1如下图

2、full 操作,滑动步长为1,图片大小为N1xN1,卷积核大小为N2xN2,卷积后图像大小:N1+N2-1 x N1+N2-1 如下图
 


3、same 操作,滑动步长为1,图片大小为N1xN1,卷积核大小为N2xN2,卷积后图像大小:N1xN1 如下图所示
 

 

为什么使用池化?

池化:选出最能代表局部特征的一个值。

1、减少运算量

2、避免过拟合

性质:一定程度上提高空间不变性(平移不变性、尺度不变性、形变不变性)

最大池化,当图像平移的尺度小于池化矩阵维数时,会得到与平移前一样的池化特征。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值