在tensorflow中训练神经网络时,训练到一半,出现Nan in summary histogram for:xxx
这种情况不一定每次都出现,有时候训练时会出现,有时候则不会。
出现这种情况,一般是由以下两种情况造成:
1.Loss的计算采用了
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
如果y的值 = 0,则log(y)则会出错,解决方法是,将上式修改为:
在tensorflow中训练神经网络时,训练到一半,出现Nan in summary histogram for:xxx
这种情况不一定每次都出现,有时候训练时会出现,有时候则不会。
出现这种情况,一般是由以下两种情况造成:
1.Loss的计算采用了
cross_entropy = -tf.reduce_sum(y_*tf.log(y))