深度学习-第二章 卷积神经网络面试题(大厂必问,历经半年整理)

本文深入剖析卷积神经网络(CNN)面试知识点,包括LeNet、AlexNet、VGG、Inception和ResNet等经典网络结构,详细解释各层卷积参数、作用及优化技巧,探讨如何减少参数量和提高模型泛化能力。内容涵盖卷积、池化、全连接层的区别,以及空洞卷积、反卷积等高级话题,助你轻松应对大厂面试。
摘要由CSDN通过智能技术生成

文章目录

老铁们✌,重要通知🙌!福利来了!!!😉

【计算机视觉 复习流程剖析及面试题详解 】
【深度学习算法 最全面面试题(30 页)】
【机器学习算法 最全面面试题(61页)】

1.NN

神经网络最全面面试题

2.CNN

对图像(不同的数据窗口数据)和滤波矩阵做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作。
卷积神经网络由输入层、卷积层、激励层、池化层、全连接层组成。
最左边:
数据输入层,对数据做一些处理:
去均值(把输入数据各个维度都中心化为0,避免数据过多偏差,影响训练效果)
归一化(把所有的数据都归一到同样的范围)、PCA/白化等。CNN只对训练集做“去均值”这一步。
中间是:
CONV:卷积层,线性乘积 求和。
RELU:激励层,ReLU是激活函数的一种。
POOL:池化层,即取区域平均或最大。
在这里插入图片描述
最右边是:
FC:全连接层

2.1卷积神经网络的结构

在这里插入图片描述
BatchNorm层:
在这里插入图片描述
Dropout层:
在这里插入图片描述
损失层
在这里插入图片描述

2.2 Keras搭建CNN

在这里插入图片描述

在这里插入图片描述

总结: 通常情况下,一维CNN的架构与CV的二维CNN很相似, 它将 Conv1D 层和 MaxPooling1D 层堆叠在一起,最后是一个全局池化运算或展平操作。
RNN 在处理非常长的序列时计算代价很大,但一维CNN的计算代价很小, 所以在 RNN 之前使用一维CNN作为预处理步骤是一个好主意,这样可以使序列变短,并提取出有用的表示交给 RNN 来处理。

2.2经典网络分类

CNN结构演变总结
堆叠(Vgg)
跳连(ResNet :加快模型收敛速度)
并联(GoogleNet/Inception)
AlexNet(7层) ~ Vgg(16层) ~ GoogleNet (22层) ~ ResNet(152) ~ DenseNet (千层)

2.2.1 LeNet

最早用于数字识别;针对灰度图进行训练的,输入图像大小为32X32X1,5X5卷积核,不包含输入层的情况下共有7层,每层都包含可训练参数。
输入的二维图像,先经过两次卷积层到池化层,再经过全连接层,最后使用softmax分类作为输出层。(conv1->pool->conv2->pool2再接全连接层)
在这里插入图片描述
在这里插入图片描述

2.2.2 AlexNet

多层小卷积叠加来替换单个的大卷积
输入尺寸:227X227X3
卷积层:5个
降采样层(池化层):3个
全连接层:2个(不包含输出层)
输出层:1个。1000个类别
在这里插入图片描述
AlexNet比LeNet表现更为出色的另一个原因是它使用了ReLu激活函数。

2.2.2.1 AlexNet 对比LeNet 的优势?

1.AlexNet比LeNet更深;
2.用多层的小卷积来替换单个的大卷积
3.非线性激活函数:ReLU
4.防止过拟合的方法:Dropout数据增强
5.大数据训练:百万级ImageNet图像数据
6.其他:GPU实现,LRN归一化层的使用

2.2.3 VGG

构筑了16~19层深的卷积神经网络,VGG-16中的16:含有参数的有16个层。
VGGNet论文中全部使用了3X3的小型卷积核2X2的最大池化层,通过不断加深网络结构来提升性能。
卷积层:CONV=3*3 filters, s = 1, padding = same convolution。
池化层:MAX_POOL = 2X2 , s = 2。
优点:简化了卷积神经网络的结构;缺点:训练的特征数量非常大。
随着网络加深,图像的宽度和高度都在以一定的规律不断减小,每次池化后刚好缩小一半,信道数目不断增加一倍。

2.2.3.1 VGG使用2个3*3卷积的优势在哪里?

减少网络层参数
用两个3X3卷积比用1个5*5卷积拥有更少的参数量,只有后者的2X3X3/(5X5)=0.72。但是起到的效果是一样的,两个33的卷积层串联相当于一个55的卷积层,感受野的大小都是5×5,即1个像素会跟周围5X5的像素产生关联.
更多的非线性变换

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

cc13186851239

觉得不错的,鼓励一下我,奥利给

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值