深度学习训练过程中的问题&解决

初始学习率设定

可以从0.0001到0.1每次扩大10倍试验,直到验证集上的loss增大。
一般0.01-0.1左右

样本不平衡问题

解决方式

  • 采样层面
    过采样&降采样
  • 基础版本的过采样:随机过采样训练样本中数量比较少的数据;缺点,容易过拟合;
  • 改进版本的过采样:SMOTE,通过插值的方式加入近邻的数据点;
  • 神经网络中的过采样:SGD训练时,保证每个batch内部样本均衡。
  • 改变loss 权重
     代表工作:focal loss,正负样本分别赋予不同的权重
  • 当作异常检测任务处理

GPU利用率低

由于CPU数据读取跟不上(读到内存+多线程+二进制文件),而GPU的处理速度太快,导致GPU的利用率不高。

  1. 提高batch_size;
  2. 减少日志IO操作频率;
  3. dataloader 多线程读取数据

Loss 为NaN的原因

  1. 梯度爆炸
  2. 出现除零、对数函数自变量为负值等数学问题
  3. 出现坏样本
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值