卷积神经网络基础--输入层、卷积层

输入层

我们通常在这一层对传入数据进行处理,此步骤可大幅优化图像处理结果,有效防止输入不同的数据单位,显著缩短神经网络训练耗时,提高网络收敛速率;需要引起注意的是,神经网络的激活函数一般都处于一定的数值区间,因此进行网络训练的数据得映射到相应的区间。

运行人工神经网络时,底层参数更新对其有显著的作用效果,造成的影响会导致假设条件难以满足。从事相关研究的科学家们在神经网络中采取归一化操作,能有效解决假设条件难以满足的问题。

此方法通常对数据做一定尺度的放大和缩小操作,一般情况下被用来对数据进行预处理或者对不同单位的测量数据作归一化数据分析。也就是说,归一化这一步骤就是将数据限制在某个数值范围内,再进行线性对比拉伸:

卷积层

卷积层的主要作用是对输入图像进行卷积运算和特征提取。卷积层中含有一系列具有同一大小的卷积核,不同的卷积核对特征提取有不同的作用。

本层进行卷积运算的步骤如下:先假设卷积核的尺寸为m×n,原始图像为X,再对尺寸为mxn的卷积核中的权值w与原始图像X中的像素值x进行求积运算,计算的公式如下:

以下图3.4为例展示标准卷积运算过程。卷积运算的卷积核每次滑过原始数字图像的9个像素,覆盖像素的滑动框会滑动四次,得到一个尺寸为2×2的二维数据。对于原始数据尺寸为n的数字图像,执行尺寸为f的卷积运算操作,最终输出的数字图像大小为n-f+1。

局部连接和权值共享是卷积层的两个最主要的特征:为提取数据的特征信息,需把数据中潜在的具有相关性的信息抽象化,便于进行以上两个特征操作。

局部连接是由人的视觉系统激发出来的,它通过将卷积层的结点与上一层的局部结点相结合,从而达到学习局部特征的目的。对于待识别的图像,在某个特定区域内,相邻的像素间的关联度高,而相距较远的像素关联度低。而在局部连接中,单一的神经元仅需要对图象的局部感知,再将全部的局部感知信息按顺序合并,就可以获得整个图象的整体信息。局部连接和全连接如图3.6所示,下图中,(a)是局部连接,(b)是全连接。

通过局部连接方式对神经元连接进行改进之后虽然在一定程度上使得网络中的参数量变少,但神经元数量任然很多,参数量依然会很多。想要参数数量变少,就需要运用权值共享策略。权值共享是指用权重参数相同的卷积核对输入图像进行卷积运算,用相同的参数提取图像特征。如图表示的是权值共享。

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值