【论文阅读笔记】Self-training with Noisy Student improves ImageNet classification

本文介绍了如何利用self-training和Noisy Student训练框架改进ImageNet分类。在传统的teacher-student架构上,通过引入教师模型生成的伪标签训练学生模型,并在训练过程中加入噪声(如RandAugment、Dropout、Stochastic Depth),实现学生模型超越教师模型的效果。研究表明,当学生模型规模更大或仅应用Noisy Student Training时,性能有显著提升。
摘要由CSDN通过智能技术生成

Motivation

  • 利用较少的标记数据来进一步利用大规模的无标记数据进行半监督/自监督学习
  • 用teacher模型生成伪标签训练studen模型,并通过加入噪声使student模型由于teacher模型,迭代此过程以得到更优的模型

原理

  • 基于self-training的teacher-student框架
  1. 用标记数据训练teacher模型
  2. 用teacher模型对大规模的无标记数据生成伪标签
  3. 用labelled data和具有伪标签的unlabelled data共同训练student模型
  4. 新的student模型作为teacher模型重复上述三步,本文实验中重复了三次
  • Noisy Student Training
    在训练student模型时增加噪声
    (文中具体添加的噪声包括:
    输入噪声:RandAugment data augmentation
    模型噪声:dropout、stochastic depth)
    加入噪声是非常关键的:
    在这里插入图片描述
    如果没有噪声,studen模型的训练结果只能无限毕竟teacher模型,但不会超过。

模型结构

  • 详见论文实验部分

要点在于:

  • student模型如果比teacher模型更大的话,效果会更好
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值