caffe中出现loss等于nan

caffe中出现等于nan的情况:

1:学习率过大,导致出现nan,或者出现87.3356,调低一个数量级的lr

2:数据不正确,可能是数据的人脸框的坐标是从0开始的,需要修改坐标从1开始

3:train.proto中的网络结构不正确,就是网络中存在bug,需要使用netscope,查看网络,检查网络中是否有bug;

4:多余的层也可能引起nan,例如,网络的faster RCNN的fc层,去掉bn和scale层之后就收敛了,或者fc层过多可能也不行,当训练的时候!

5: 加入BN层后loss为87.3365的解决办法

BN层中有一个参数use_ global_stats,在训练时我们需要将其设置为false,这样BN层才能更新计算均值和方差,如果设置为true的话,就是初始固定的了,不会更新。在测试时,需要将其设置为true。将网络中该参数修改过来就训练正常了。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值