从CNN到ResNet的深入学习

CNN

课程来源:深度学习与计算机视觉

卷积

全连接层的网络输入是一个一维的

而卷积神经网络输入是一个三维的

输入层

对不同的区域提取出不同的特质,也就是每个小区域可以是一群像素点(像眼睛是聚焦一小块地方去识别特征)

这一个区域就是卷积核,得到的绿色矩阵就像一个特征图!

卷积层

7x7x3 的最后一个3 是RGB三通道。

多个Filter(卷积核)获取不同特征。

同一个卷积层的卷积核一定是要相同的

经过几次卷积

先用六个不同的卷积核得到六个特征图,再用十个不同的卷积核得到十个特征图

卷积核的第三个值(第三维度)一定是和前面输入的第三个值(第三维度)是一样的

滑动窗口步长:移动大小,对结果的影响就是得到的Output Volume

当步长小,慢慢提取特征,当步长大,大刀阔斧粗略提取特征

CV用CNN一般是单步长,但是NLP有可能用大步长

NLP用CNN,可以用(类似网络滑动窗口)进行用卷积(三个词三个词或者五个字五个字提取特征)

卷积核尺寸:上述已讲

边缘填充:因为有些点对最终输出结果贡献多,而越边缘的点对最终输出结果贡献少,所以边缘填充,使得原来的边缘不再是边缘,让边缘也对之后的结果产生更大的影响

卷积核个数:上述已讲

CNN参数相对于全连接层少很多!

池化层

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YKQBNppU-1678346660088)(file:///C:/Users/fangz/Pictures/Typedown/508db33e-7ca6-4bc1-b243-d74711ae10dc.png)]

池化层,做压缩,下采样的!

最大池化比平均池化好得多!

全连接层

最后一层FC:最后一个池化层的三维输出拉直成一个特征向量![外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Fn7jvL85-1678346660089)(file:///C:/Users/fangz/Pictures/Typedown/0921a0e7-8aa3-428d-926c-a228b7cfa07e.png)]

总结

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9MnlV25n-1678346660092)(file:///C:/Users/fangz/Pictures/Typedown/5e27eef5-ffb8-4425-ac66-b7672c609d8a.png)]

经典CNN架构Alexnet

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CTcR2jZY-1678346660094)(file:///C:/Users/fangz/Pictures/Typedown/6c798c60-1d92-4646-bff9-7d3c49adb87c.png)]

VGG

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ysU9Q9er-1678346660096)(file:///C:/Users/fangz/Pictures/Typedown/c56e9d57-4805-4983-927b-cea92f829941.png)]

所有卷积核都是3*3的,但是VGG训练时间比Alexnet长很多,以天为单位!

感受野

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eJgr1jkL-1678346660098)(file:///C:/Users/fangz/Pictures/Typedown/aac5a34a-89e2-409b-9b3f-94d8b294f16f.png)]

VGG就是全用 3 ∗ 3 3*3 33 的!

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LhjuC1Zz-1678346660100)(file:///C:/Users/fangz/Pictures/Typedown/4b7a912d-2986-4ff0-982f-4bd3e9a24854.png)]

ResNet

实验中发现一个事儿:当计算机性能越来越高,理论上层数越深,效果越好。但堆叠层数越深,居然会退化!但是深度学习应该是层数越深越好嘛。
在这里插入图片描述
我既要把层数堆叠起来,但是不能让那些影响我模型变差的层数去影响我最终结果。

选拔那些对结果有利影响的层数。同等映射! 中间不好的层数直接跳过。

H ( x ) = F ( x ) + x H(x)=F(x)+x H(x)=F(x)+x x x x 最终也直接拿下来,做一个保底,如果 F ( x ) F(x) F(x) 效果不好,那么Loss函数会将 F ( x ) F(x) F(x) 的影响优化到 0 0 0 直接同等映射!

重新盘活了深度学习!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值