cs231n--详解卷积神经网络

原版地址:http://cs231n.github.io/convolutional-networks/

知乎翻译地址:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit

 

1 卷积层

(1)理解卷积层

      按照卷积的观点看,卷积层由若干卷积核(滤波器)组成,核的参数待学习,将卷积核在输入上滑动相乘,得到的输出称为激活图。假设输入数据体的尺寸为W_1\times H_1\times D_1。4个超参数为:滤波器的数量K,滤波器的空间尺寸F,步长S,零填充数量P。则输出数据体的尺寸为W_2\times H_2\times D_2 ,其中:W_2=(W_1-F+2P)/S+1H_2=(H_1-F+2P)/S+1 ,D_2=K

      按照神经元的观点看,卷积层中神经元的一个深度切片是共享参数的,并且它们只连接到输入的一部分(称为感受野),每个神经元突触的权重就是滤波器。不同深度上的神经元是不共享参数的。也就是说,同一个深度切面上的所有神经元都学习同样的特征,不同深度上的神经元学习不同的特征。由于图像具有平移不变性,因此共享参数是合理的,处于同一深度切面上的神经元是在图像不同位置上检测相同的特征。

(2)实现

普通实现,矩阵乘法实现。详细见https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit

 

2 pooling层

      pooling层也有一个滑动的滤波器,但是不含参数,只是对输入做降采样,通常是取窗口内的最大值操作。

 

3 全连接层转化成卷积层

     全连接层可以看作卷积层,这种转化的好处是可以用一次前向传播对更大图像的不同位置打分,而如果不做这种转化,就需要输入在大图像上不同位置滑动,经过多次前向传播,才能获得不同位置的打分。

 

4 结构

常见的卷积网络结构为:INPUT -> [[CONV -> RELU]*N -> POOL?]*M -> [FC -> RELU]*K -> FC

 

5 层结构及超参数的设置规律

详见https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit

 

转载于:https://www.cnblogs.com/coldyan/p/8352399.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值