【OpenMMLab打卡Day2】基础视觉模型

轻量化模型设计

1x1卷积

在这里插入图片描述
ResNet的BottleNeck block,先使用1x1卷积降低通道数(256->64),再使用3x3卷积,以此来减少计算开销。

可分离卷积

在这里插入图片描述
将常规卷积分解为逐层卷积和逐点卷积两个步骤,可以降低参数量和计算量。先用通道数为1的卷积对每一个通道分开进行卷积,得到N通道互不关联的feature map,相当于对一本书的每一页做单独的卷积;之后再使用1x1的N通道卷积,进行逐点卷积,即对一本书的每一页的同一位置同时进行计算,来做通道之间的信息交互。

学习率对训练的影响

在这里插入图片描述
学习率的设置直接影响了模型的收敛速度和最后能达到的精度,从头训练可以使用较大的学习率,而fine-tune可以使用比较小的学习率。当我们想复现某些工作时,有时候无法满足原工作的训练配置,在调整显卡数量和bs的时候,也应当相应对lr做调整。当 batch size 扩大为原来的 𝑘 倍时,学习率也应该对应扩大 𝑘 倍,这样做可以保证平均每个样本带来的梯度下降步长相同。
eg:假设预训练模型使用 lr=0.1,8卡数据并行训练,如果希望用1卡复现实验,lr 应设置为 0.0125。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值