卷积神经网络图解

本文介绍了卷积神经网络的关键概念,包括卷积层的参数共享和稀疏连接,池化层的作用,以及经典神经网络如残差网络、1x1卷积和Inception网络的设计思想。同时探讨了迁移学习的应用,并详细阐述了神经网络在分类、定位和目标检测中的应用,特别是YOLO算法的工作原理。
摘要由CSDN通过智能技术生成

参考资料:https://blog.csdn.net/weixin_36815313/article/details/105728919

卷积层

在这里插入图片描述
在这里插入图片描述

卷积的优点——参数共享和稀疏连接

  1. 参数共享
    特征检测如垂直边缘检测如果适用于图片的某个区域,那么它也可能适用于图片的其他区域。也就是说,如果你用一个3×3的过滤器检测垂直边缘,那么图片的左上角区域,以及旁边的各个区域(左边矩阵中蓝色方框标记的部分)都可以使用这个3×3的过滤器。
  2. 稀疏连接
    输出(右边矩阵中红色标记的元素 30)仅仅依赖于这9个特征(左边矩阵红色方框标记的区域),看上去只有这9个输入特征与输出相连接,其它像素对输出没有任何影响。
    在这里插入图片描述

池化层——无需学习参数

在这里插入图片描述

卷积神经网络案例

在这里插入图片描述

梯度下降

在这里插入图片描述在这里插入图片描述

经典的神经网络

LeNet-5 ,AlexNet, VGG, ResNet, Inception

疑问: 请教下为什么随着网络的加深,图像的高度和宽度都在以一定的规律不断缩小,而通道数量在不断增,要这么设计呢?

残差网络

详解残差网络: https://zhuanlan.zhihu.com/p/42706477

随着网络层数的增加,网络发生了退化(degradation)的现象:随着网络层数的增多,训练集loss逐渐下降,然后趋于饱和,当你再增加网络深度的话,训练集loss反而会增大。注意这并不是过拟合,因为在过拟合中训练loss是一直减小的。当网络退化时,浅层网络能够达到比深层网络更好的训练效果,这时如果我们把低层的特征传到高层,那么效果应该至少不比浅层的网络效果差,或者说如果一个VGG-100网络在第98层使用的是和VGG-16第14层一模一样的特征,那么VGG-100的效果应该会和VGG-16的效果相同。所以,我们可以在VGG-100的98层和14层之间添加一条直接映射(Identity Mapping)来达到此效果。从信息论的角度讲,由于DPI(数据处理不等式)的存在,在前向传输的过程中,随着层数的加深,Featur

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值