【深度学习】CNN炼丹TIPS

确保收敛

以下小技巧用来是网络收敛的必要不充分条件:

  1. 迭代次数(Epoch):至少5-7epoch,也就是必须对所有样本训练5-7遍,可以根据实际情况调整至更大;
  2. 样本数量分布(Sample Account):注意保持各个类别样本数均衡,类别间数量差异控制在2倍以内吧,比如最少的样本数为100,最多的样本最好在300以下。如果样本差异过大,比如某类100,另一类1000以上,很可能导致Loss一直在高低值之间震荡,难以收敛;
  3. 学习率(Learning Rate):初始学习率不宜过大,经常采用的初始学习率如0.01,太大的学习率使得Loss值一直处于高位震荡,无法收敛;

加速收敛

如何让网络更加强健、提升训练收敛速度是以下小技巧所关心的:

  1. 学习率衰减(LR Decay):让学习率在网络训练的后半阶段逐渐缩小,可以进一步提升网络准确度;
  2. 丢弃节点(Dropout):当网络节点过多时,采用Dropout让网络中部分节点不工作,防止网络过拟合,提升网络稳健性;
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值