2019图像AI模型训练技巧九阳神功-BoF论文解读

2019图像AI模型训练技巧九阳神功-BoF论文解读

looking for papers for Bag of Freebies for Training Object Detection Neural Networks

contributer : leoluopy

  • 欢迎提issue.欢迎watch ,star.
  • 微信号:leoluopy
  • 关注AI前沿技术及商业落地,欢迎交流

更多AI图像笔记分享:https://github.com/leoluopy/paper_discussing

Overview

  • 在大环境大家都在比拼模型设计,机器训练资源情况下,作者提出了一些了训练技巧,不改变任何网络结构在各种检测网络中都取得了不错的提升效果
  • 同步BN(如果多卡)
  • 随机图像尺寸采样
  • cosine学习率衰减
  • label-smooth标签平滑
  • mixup图像融合叠加

提升效果

上图的标准是COCO的mAP值,YOLO提升最大达到5个点,

上图是一个典型举例,数据集存在一个场景采样限制问题,如上图所示大象基本不太可能出现在家里(家里装不下嘛) 基于这样的数据集神经网络很可能学习到数据的这样隐式依赖,大象不会出现在房屋中。从而降低了检测器效果。

作者提出或者说改进的mixup方法就解决这样的问题。

开源实现

同步BN

  • BN已经在神经网络的训练中得到了广泛的运用,随着训练数据集的不断增大,多卡,多机器训练成为趋势,各个batch被切分 为更小的batch在各个卡和各个机器中训练,基于BN的公式,多卡和多机器训练时,梯度分量计算会产生差异。这种差异在分类任务中不明显,在检测任务中影响会比较大。
  • 同步BN在运算不同机器或者显卡梯度分量前会首先同步,从而保证期望和方差一致性。

随机图像尺寸

  • 随机图像尺寸比较常规,就是YOLO这样的类似全卷积网络中,为了防止模型对图像尺寸产生过拟合输入图像进行不同scale的缩放,以YOLO3为例(416-608之间32为间隔,随机缩放)

cosine学习率

  • 学习率衰减曲线图如其名,开始训练和结束训练阶段,学习率衰减较慢,训练的中间阶段学习率下降迅速。

label smooth 标签平滑

  • ε:固定较小常数
  • K:分类数目
  • 两个q分布是原始GT和平滑后的GT

标签平滑其实也是一种正则化手段,其目的是为了增强模型的泛化能力。他的具体做法是:将GT做相应的削弱

通俗的理解就是:让分类器不那么肯定这个结果,从而去掉哪些过于特例话的特征,并提取更加通用的特征。

图像mixup混合

  • mixup 思路比较简单,两幅图像分布按照相应比例,不同透明度进行叠加
  • 整体图像透明度比例符合beta分布,并且分布的a,b系数选择1.5

参考代码

    mix_img = mx.nd.zeros(shape=(height, width, 3), dtype='float32')
    mix_img[:img1.shape[0], :img1.shape[1], :] = img1.astype('float32') * lambd
    mix_img[:img2.shape[0], :img2.shape[1], :] += img2.astype('float32') * (1. - lambd)
    mix_img = mix_img.astype('uint8')

各个方法的贡献统计

  • 图像融合贡献最大,其次标签平滑,cosine学习率,标签平滑和随机图像大小贡献差异不大。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值