- 博客(3)
- 收藏
- 关注
翻译 如何调试神经网络(深度神经网络)
神经网络的调试基本上难于绝大多数的程序,因为大部分的神经网络的错误不会以类型错误或运行时错误显现,他们只是使得网络难以收敛。如果你是一个新人,这可能会让你非常沮丧。一个有经验的网络训练者可以系统的克服这些困难,尽管存在着大量似是而非的错误信息,比如:你的网络训练的不太好。对缺少经验的人来说,这个信息令人却步;但对有经验的人来说,这是一个非常好的错误消息。它意味着样板代码已经偏移了正确道路,而且是时
2016-10-27 20:37:24 3321
原创 使用caffe训练时Loss变为nan的原因
梯度爆炸原因:梯度变得非常大,使得学习过程难以继续现象:观察log,注意每一轮迭代后的loss。loss随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了nan。措施:减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个loss layer,需要找出哪个损失层导致了梯度爆炸,并在train_val.prototxt中减小该层的loss_weight,而非是减小
2016-10-27 17:29:27 15045
原创 人流密度(crowd counting)估计方法
人流密度估计方法在深度学习起来之前主要有两种,直接估计和间接估计。近两年又有几篇做的不错的是使用cnn来进行估计。面临的挑战要进行准确的人流密度估计,面临了如下的难点 1.低分辨率:可以看看UCF Crowd Counting 50这个数据集,在很多密集的情况下,一个人头的pixel可能只有5*5甚至更小,这就决定了基于检测的很多方法都行不通; 2.遮挡严重:在人群中,头肩模型都难以适用更不用说
2016-10-27 17:04:37 22037 7
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人