CNN

一、引入CNN的缘由
neural network参数太多,容易过拟合,计算量太大。从这个缺点出发,提出改进。能否利用一些prior knowledge减少整个模型的参数呢?于是CNN诞生了!
二、CNN设计理念
任何的创新工作都离不开已有的成就,让我们回顾一下fully forward network ,neuron之间采用全连接(导致模型参数多的原因),我们能否不采用全连接方式呢?自然模型参数也就少了。hidden layer 的neuron个数最好也别太多。更深层次来探究一下,神经网络在做什么?每个neuron都是一个logistic regression ,根据样本提取特征,以形成classifier;而下一hidden layer在上一个hidden layer的输出结果继续提取特征。这里想说每个neuron是个classifier ,代表一种特征。
在这里插入图片描述
由于CNN最常被使用在图像领域,对图像分析,可以分析得出pattern(特征)是局部的,pattern(特征)可能出现在在图像的不同位置,对图像做subsampling不影响图像辩识效果。我们正是根由这三点来设计CNN,CNN模型包含卷积层(体现pattern只与部分输入有关、权值共享)、池化层(subsampling)。
在这里插入图片描述

在这里插入图片描述三、CNN具体实现
整体架构:
在这里插入图片描述分部分讨论:
卷积层:
使用filter表示权值(一个filter是一个特征),filter与输入图像的部分像素点做点积运算(可以找到图像中与pattern相似的部分 ,由于采用stride方式遍历整个图像,因此可以实现我们第二个要求,pattern可出现在图像的不同位置),多个filter与图像做点积运算的结果构成feature map。实际上,filter个数决定了hidden layer有效neuron个数 (权值不同),(卷积层+池化层)个数决定了hidden layer层数。
在这里插入图片描述在这里插入图片描述这里要注意,选取的filter的高默认要和池化层输出的高相同。
在这里插入图片描述与全连接神经网络比较,参数少,能有效地检测出pattern的特征很明显:
在这里插入图片描述在这里插入图片描述在这里插入图片描述池化层:
在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述四、逆向理解CNN都做了什么
这里分别选择不同的优化目标:某个filter和(权值和),fully forward network的隐藏层输入,最后输出结果,对输入图像做梯度下降,来看看最佳的图像以理解CNN都学到了什么。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述在这里插入图片描述
五、
在这里插入图片描述在这里插入图片描述在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值