深度学习笔记

参照ResNet网络结构,BN以及迁移学习详解

Resnet

1. why resnet?

  1. 梯度消失或梯度爆炸
  2. 退化问题

2. 梯度消失或梯度爆炸通常怎样解决?

  1. 数据标准化处理
  2. 权重初始化
  3. BN(Batch Normalization)

3. Resnet网络的亮点

  1. 超深的网络结构(突破1000层次)
  2. 提出residual模块
  3. 使用Batch Normalization加速训练(丢弃dropout)
    下图为Residual残差结构, 注意relu位置,注意是直接加,而不是维度上的拼接
    在这里插入图片描述
    4. Residual结构及参数量
    左侧为较浅网络中的residual结构,右侧为较深网络中的residual结构,图中为假设左边也输入256维的计算量比较
    在这里插入图片描述
    5. Resnet34结构示例
    在这里插入图片描述
    实线虚线区别:为了保证主分支与捷径分支的shape完全一致
    在这里插入图片描述

Batch Normalization

1. 目的
Batch Normalization的目的就是使一批次(batch)的feature map满足均值为0,方差为1的分布规律。
在这里插入图片描述
2. 使用BN所需要注意的一些问题
(1)训练时要将traning参数设置为True,在验证时将trainning参数设置为False。在pytorch中可通过创建模型的model.train()和model.eval()方法控制。(训练时会不断统计均值和方差,测试时使用历史统计的均值和方差)

(2)batch size尽可能设置大点,设置小后表现可能很糟糕,设置的越大求的均值和方差越接近整个训练集的均值和方差。

(3)建议将bn层放在卷积层(Conv)和激活层(例如Relu)之间,且卷积层不要使用偏置bias,因为没有用,参考下图推理,即使使用了偏置bias求出的结果也是一样的

迁移学习

1. 优势

  1. 能够快速地训练出一个理想的结果
  2. 当数据集较小时也能训练出理想的结果
    注意:使用别人预训练参数时,要注意别人的预处理方式
    2. 常见的迁移学习方式
    在这里插入图片描述

MobileNet

参考MobileNet(v1、v2)网络详解与模型的搭建

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值