Caffe下卷积神经网络中的一些特殊层

本文介绍了Caffe下卷积神经网络中的一些关键层,包括Batch Normalization用于加速收敛,Dropout防止过拟合,ReLU和PReLU作为激活函数,Split、Reshape层用于数据处理,以及InnerProduct层的使用。理解这些层的原理和用法对于构建和优化CNN模型至关重要。
摘要由CSDN通过智能技术生成

Caffe下卷积神经网络(CNN)中的一些特殊层

作者:xg123321123

出处:http://blog.csdn.net/xg123321123/article/details/52610919

声明:版权所有,转载请联系作者并注明出处

Batch Normalization

  • 意义: 网络训练时,用来加速收敛速度
  • 提醒:
    • 已经将BN集成为一个layer了,使用时需要和scale层一起使用
    • 训练的时候,将BN层的use_global_stats设置为false; 测试的时候将use_global_stats设置为true,不然训练的时候会报“NAN”或者模型不收敛 – 师兄的经验,我还没试验过
  • 用法: 详见 残差神经网络的使用

Dropout

  • 意义: 防止模型过拟合;训练模型时,随机让网络某些隐含层节点的权重不工作(不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来,只是暂时不更新而已,因为下次样本输入时它可能又得工作了)
  • 用法࿱
  • 3
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值