CNN公式推导

本文详细介绍了卷积神经网络(CNN)的公式推导,涵盖卷积层和subsampling层的卷积计算、残差计算及梯度计算。通过实例解释了卷积核的作用,以及在不同层间的传递方式,帮助读者深入理解CNN的工作原理。
摘要由CSDN通过智能技术生成

CNN公式推导

1 前言

         在看此blog之前,请确保已经看懂我的前两篇blog【深度学习笔记1(卷积神经网络)】和【BP算法与公式推导】。并且已经看过文献[1]的论文【Notes on Convolutional Neural Networks】。因为本文就是讲解文献[1]论文前部分公式的推导过程<这里有一个假设,或许公式是错误的,如有好的理解请留言>


2 CNN公式推导

         卷积神经网络参数求解的过程与上次笔记【BP算法与公式推导】类似,但是在形式上还是有变化的。文献[1]的论文直接给出了参数求解的公式,主要包括:卷积层和subsampling层的残差以及对应的对权重参数和偏置参数的导数。

注意:这里的卷积核参数所放在的层与残差放在了同一层,和上次笔记略有不同,但是没有影响!


2.1 卷积层:

2.1.1 卷积计算

         假设第l层为卷积层,第l+1层为subsampling层,则第l层第j个feature map的计算公式如下:


         上面的*号实质是让卷积核k在第l-1层所有关联的feature maps上做卷积运算,然后求和,再加上一个偏置参数,取sigmoid得到最终激励值的过程。

例子:假设第l-1层只有两个feature map,大小为4*4像素。

          

一个卷积核K(二维卷积核K11和K12),大小为2*2。

       

则计算第l层的一个feature map结果如下,大小为3*3像素:



注意:在matlab中可以用convn函数来实现卷积,如:

  • 23
    点赞
  • 126
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值