DL:调优trick

  • 优化器,例如SGD,adam
  • 学习率,乘以衰减系数
  • dropout层,防止过拟合
    (第一跑模型不加dropout,后期调优在LSTM后添加dropout层)
  • 变量初始化(正交分布初始化,正态分布初始化,均匀分布初始化)
  • 训练次数(验证集loss不减少则停止)
  • 正则化(LR)
  • 预训练(word2vec)
  • 激活函数(sigmoid计算量大,饱和区梯度消失;tanh梯度消失;ReLU解决梯度消失但某些神经元可能永远不会激活,leaky ReLU可以解决ReLU问题,但没有完全证明leaky ReLU好于ReLU)
  • 模型选择(CNN对轮廓敏感,RNN对连续序列敏感)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值