问题:训练时发现accuracy=1,loss=87.365
原因:loss=87.365可能是因为softmax在计算的过程中得到了值等于零,导致loss溢出。
解决方法:可能是bn层的batch_norm_param的use_global_stats设置成true了,需改成false。
accuracy=1的原因不太清楚。
问题:训练时发现accuracy=1,loss=87.365
原因:loss=87.365可能是因为softmax在计算的过程中得到了值等于零,导致loss溢出。
解决方法:可能是bn层的batch_norm_param的use_global_stats设置成true了,需改成false。
accuracy=1的原因不太清楚。