CNN基础

本文介绍了CNN的基础,包括卷积层、池化层和全连接层。卷积层通过权值共享减少参数,池化层用于简化模型,全连接层类似传统神经网络。文章探讨了CNN的经典结构、常见问题及未来趋势,如使用更小过滤器和更深网络结构。
摘要由CSDN通过智能技术生成

1、CNN的引入

传统的神经网络一般属于全连接神经网络,也就是说相邻的两层间中每一层的神经元都与另一层的神经元间有链接。这样的网络显然可以完整的保持输入数据的信息。但假设输入数据的维度较高(假设输入时图片,维度是200X200X3),相邻隐含层中隐含单元的个数为10个那么第一层的权重中,参数的个数为200X200X3X10 = 1200000个,这还仅仅是考虑了单隐含层的情况。这么多的参数当然可以很好的拟合输入与输出,但同时也很容易造成过拟合的发生。CNN在传统神经网络的基础上加入了卷积层和池化层,以简化网络参数。从整体上讲,CNN包含3种不同的层卷积层、池化层以及和传统神经网络类似的全连接层。即使是非常复杂的CNN网络也只是这3层的叠加。

2、卷积层

既然在1中提到了模型参数过多的情况,那么一个解决方案是权值共享(weight sharing)。即对于不同的输入数据来使用相同的权重来到达缩减参数的目的。其基本思路如下图:
这里写图片描述
在卷积的过程中有3大参数,卷积的宽度、卷积的步长以及补0的行数。

  • 卷积的宽度:一般指过滤器(filter)的宽度
  • 卷积的步长(stride):即每次卷积移动的步长
  • 补零的行数:通常情况下为了控制通过卷积层后数据的大小(一般情况下作用是保持和输入数据相同的大小)
    假设卷积的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值