从CNN到ResNet的深入学习

CNN

课程来源:深度学习与计算机视觉

卷积

全连接层的网络输入是一个一维的

而卷积神经网络输入是一个三维的

输入层

对不同的区域提取出不同的特质,也就是每个小区域可以是一群像素点(像眼睛是聚焦一小块地方去识别特征)

这一个区域就是卷积核,得到的绿色矩阵就像一个特征图!

卷积层

7x7x3 的最后一个3 是RGB三通道。

多个Filter(卷积核)获取不同特征。

同一个卷积层的卷积核一定是要相同的

经过几次卷积

先用六个不同的卷积核得到六个特征图,再用十个不同的卷积核得到十个特征图

卷积核的第三个值(第三维度)一定是和前面输入的第三个值(第三维度)是一样的

滑动窗口步长:移动大小,对结果的影响就是得到的Output Volume

当步长小,慢慢提取特征,当步长大,大刀阔斧粗略提取特征

CV用CNN一般是单步长,但是NLP有可能用大步长

NLP用CNN,可以用(类似网络滑动窗口)进行用卷积(三个词三个词或者五个字五个字提取特征)

卷积核尺寸:上述已讲

边缘填充:因为有些点对最终输出结果贡献多,而越边缘的点对最终输出结果贡献少,所以边缘填充,使得原来的边缘不再是边缘,让边缘也对之后的结果产生更大的影响

卷积核个数:上述已讲

CNN参数相对于全连接层少很多!

池化层

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YKQBNppU-1678346660088)(file:///C:/Users/fangz/Pictures/Typedown/508db33e-7ca6-4bc1-b243-d74711ae10dc.png)]

池化层,做压缩,下采样的!

最大池化比平均池化好得多!

全连接层

最后一层FC:最后一个池化层的三维输出拉直成一个特征向量![外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Fn7jvL85-1678346660089)(file:///C:/Users/fangz/Pictures/Typedown/0921a0e7-8aa3-428d-926c-a228b7cfa07e.png)]

总结

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9MnlV25n-1678346660092)(file:///C:/Users/fangz/Pictures/Typedown/5e27eef5-ffb8-4425-ac66-b7672c609d8a.png)]

经典CNN架构Alexnet

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CTcR2jZY-1678346660094)(file:///C:/Users/fangz/Pictures/Typedown/6c798c60-1d92-4646-bff9-7d3c49adb87c.png)]

VGG

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ysU9Q9er-1678346660096)(file:///C:/Users/fangz/Pictures/Typedown/c56e9d57-4805-4983-927b-cea92f829941.png)]

所有卷积核都是3*3的,但是VGG训练时间比Alexnet长很多,以天为单位!

感受野

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eJgr1jkL-1678346660098)(file:///C:/Users/fangz/Pictures/Typedown/aac5a34a-89e2-409b-9b3f-94d8b294f16f.png)]

VGG就是全用 3 ∗ 3 3*3 33 的!

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LhjuC1Zz-1678346660100)(file:///C:/Users/fangz/Pictures/Typedown/4b7a912d-2986-4ff0-982f-4bd3e9a24854.png)]

ResNet

实验中发现一个事儿:当计算机性能越来越高,理论上层数越深,效果越好。但堆叠层数越深,居然会退化!但是深度学习应该是层数越深越好嘛。
在这里插入图片描述
我既要把层数堆叠起来,但是不能让那些影响我模型变差的层数去影响我最终结果。

选拔那些对结果有利影响的层数。同等映射! 中间不好的层数直接跳过。

H ( x ) = F ( x ) + x H(x)=F(x)+x H(x)=F(x)+x x x x 最终也直接拿下来,做一个保底,如果 F ( x ) F(x) F(x) 效果不好,那么Loss函数会将 F ( x ) F(x) F(x) 的影响优化到 0 0 0 直接同等映射!

重新盘活了深度学习!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CNN(卷积神经网络)是一种广泛应用于图像识别和计算机视觉任务的深度学习模型。它的设计灵感来自于人类视觉系统的工作原理,并通过卷积层、池化层和全连接层等组件来有效地提取图像特征。 学习CNN可以包括以下几个方面: 1. 卷积层:了解卷积操作的基本原理,以及如何使用卷积核在图像上进行特征提取。学习卷积核的选择、步长、填充等参数对输出特征图的影响。 2. 池化层:了解池化操作的作用,如最大池化和平均池化,可以减少特征图的维度,并保留主要信息。 3. 激活函数:学习不同类型的激活函数,如ReLU、sigmoid和tanh,以及它们在CNN中的应用。 4. 全连接层:理解全连接层的作用,将前面的特征图映射到分类结果,并学习如何使用softmax函数进行多类别分类。 5. 损失函数和优化器:了解常用的损失函数,如交叉熵损失函数,并学习如何使用梯度下降等优化器来训练CNN模型。 6. 数据预处理:学习如何对输入图像进行预处理,如归一化、数据增强等,以提高模型的鲁棒性和泛化能力。 7. 模型结构和参数调整:了解CNN的不同模型结构,如LeNet、AlexNet、VGG、ResNet等,以及它们在不同任务上的应用。学习如何调整模型的超参数,如学习率、批量大小等。 8. 实践项目:通过实践中的项目来深入理解CNN的应用,例如图像分类、目标检测、语义分割等。 记住,要掌握CNN,需要理解其基本原理和常用技术,并通过实践来加深理解和提升技能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值