CS231n神经网络详解(其结构,优化,近年网络实例解析,迁移学习【小dataset】)

本文深入探讨了神经网络的结构,包括卷积层、池化层、全连接层及其优化技巧,如Alexnet和ResNet。特别强调了在小数据集上利用迁移学习提升模型性能的方法。
摘要由CSDN通过智能技术生成

神经网络详解

在这里插入图片描述

加一圈0,pad保持卷积后尺寸不变在这里插入图片描述

不加一圈0,尺寸会逐步快速减小
在这里插入图片描述
在这里插入图片描述在这里插入图片描述
总结(卷积层数量计算公式)
在这里插入图片描述
1*1的滤波器来卷积也是有意义的(因为有深度),一般用奇数(有左右)
在这里插入图片描述

局部连接性(全局连接太大)

每个深度方向(如下5个不同的神经元)都看着输入数据相同的部分,
28*28个都在局部空间内寻找垂直的条形(轮廓)
在这里插入图片描述
以上讲的是卷积层和relu层
在这里插入图片描述

poling池化层采样(一般向下采样)

在这里插入图片描述

最大池化

在这里插入图片描述
还有平均pooling
在这里插入图片描述
如F=2,S=2
就每次不断缩小2倍

全连接层

在这里插入图片描述

以Alexnet(单线简化版)

在这里插入图片描述
在这里插入图片描述
池化层没有参数
在这里插入图片描述
用滤波器做卷积时所有神经元共享参数,反向传播要当心,所有滤波器的梯度都汇总到一个权重blob

(如上图)训练细节:

拿到图像后不直接使用而是先对其处理一下(尺寸,颜色,噪声等,0.5随机失活)

##ZFnet实例
在这里插入图片描述
vgg-Net
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
全连接层参数量过大,现在往往采用均值化技术减少(对每个volume(feature map 求均值)得到512个数),从而减小量(效果差不多)

googlenet(加入inception模块)

在这里插入图片描述
在这里插入图片描述

ResNet(3.7%)

在这里插入图片描述
在这里插入图片描述
more layers better(加层时同时改正错误率,否则适得其反)
但你需要2-3周用8个GPU训练得到
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如何训练一个残差网络

残差网络是恒等的
在这里插入图片描述
总结
红色为一般结构公式总结
在这里插入图片描述

迁移学习(用于小数据集训练)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
数据量很小,可以先在大数据上预训练,再应用到自己的数据集上

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值