点击蓝字关注我们
AI研习图书馆,发现不一样的世界
炼丹笔记深度学习炼丹笔记一
一、问题引入
常见问题1: loss等于87.33,居高不降如上图所示,在开始训练后, loss升高到87.3365后保持不变。这个问题是因为梯度爆炸导致的。
loss -= log(std::max(prob_data[i * dim + label_value * inner_num_ + j], Dtype(FLT_MIN)));
loss等于87.33这个问题,对一些常见分类网络,不管是fine-tuning还是train的时候都会遇到,无论网络迭代多少次,网络的loss一直保持恒定。
查阅相关资料以后发现,在softmax_loss_lay