CNN优化trick

针对CNN优化

  • 使用类似1*1 的网络结构预训练RGB数据
  • 使用大约 128(0.005) 到 256 (0.01)的 mini-batch 大小。如果这对你的 GPU 而言太大,将学习率按比例降到这个大小就行
  • 卷积层取代FC,并用全局平均池化来预测
  • 研究增加数据集大小时,要考虑数据分布
  • 如果不能增加输入图像的大小,但是可以在随后的层上减少步幅

训练深度神经网络的trick

  • 每一个epoch都要shuffle
  • 扩展数据集:小数据集容易过拟合。
  • 在整个数据集训练之前,先在非常小的子数据集上训练进行过拟合,这样可以知道网络是否可以收敛。
  • 在FC层 channel>256 就应该适当使用dropout
  • 避免使用双曲激活函数sigmoid或tanh
  • 在最大池化之前不要使用relu,而是在保存计算之后使用它
  • 尽量不要使用relu,初始化不好导致满盘皆输。可以采用PRelu,左边*0.1
  • 经常使用批归一化
  • 修改模型,只要可能就使用1*1的CNN层

提升算法性能思路

  • 数据提升性能
  • 算法提升性能
  • 调参提升性能
数据提升性能
  1. 获取更多数据
  2. 创造更多数据
  3. rescale数据
    重放缩数据至激活函数边界
  4. 数据变换
算法提升性能
  1. 对算法抽样调查
  2. 借鉴已有文献
  3. 重采样方法
调参提升性能
  1. 诊断
    判断model是否过拟合或者欠拟合
  2. 权重初始化
  3. 学习率
  4. 激活函数
  5. 改变网络结构
  6. batchsize 和epoch
  7. 正则化
  8. 优化器和损失函数
  9. early stopping
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

liiiiiiiiiiiiike

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值