为什么 卷积网络输出特征图会越来越多_吴恩达—卷积神经网络(CNN)学习笔记(一)...

前言

最近因毕业设计中设计深度学习目标检测方面的知识,作为小白想要从零开始学习一下,主要就是在B站看吴恩达的教学视频。目前在学习第四课—卷积神经网络,感觉把学习过程中的笔记贴出来能够督促自己,同时也能够记录下自己的一些想法,便于日后查看或者互相交流。

卷积神经网络之前的课时,尤其是第一课中关于神经网络结构、前向反向传播算法等方面的知识还是比较基础的,如果没有学习过还是建议先去看一下,在B站上都有完整的视频,这个老师讲得也非常细致,对小白很友好。

全连接神经网络在图像处理方面所遇到的困难

作为一幅图像,其中的信息维度通常是很高的。假设需要处理的是一幅1000×1000像素的RGB图像,那么输入层就需要有1000×1000*3个神经元,也就是说输入向量X的维度达到了3×10^6,如果神经网络的第1层(输入层可以视为第0层)有1000个隐藏单元(hidden units),那么W1就是一个大小为[1000, 3×10^6]的矩阵,其中含有30亿个参数。在参数如此巨大的情况下,难以获取足够数据防止神经网络的过拟合,也难以满足竞争需求。

7cd4af912bf577af0c4b9d577287202c.png
经典全连接神经网络

因此我们需要一种运算方式来减小输入全连接网络的特征向量的维度。这种运算就是卷积运算。

卷积运算(Convolution)

图像处理领域的卷积运算是通过一个卷积核(例如一个f×f的矩阵)在n×n的图像上以一个像素为单位滑动,那么可以有(n-f+1)×(n-f+1)个滑动位置,这些滑动位置又构成了一个(n-f+1)×(n-f+1)的新图像。

新图像上的各像素值为卷积核与原图像对应像素值乘积之和。

81861c94fdddd83fc7569772fef9a3d6.png
原图像大小6×6,卷积核大小3×3,则输出图像大小为4×4

*事实上,在

  • 4
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值