python为什么会出现nan_python - 深度学习Loss Nan的原因

在深度学习中Loss出现Nan的可能原因有哪些?

也许这个问题太笼统,但是谁能大致解释下导致卷积神经网络发散的原因呢?

问题细节:

我正在使用Tensorflow的iris_training模型以及一些我自己的数据,老是出现以下报错:

ERROR:tensorflow:Model diverged with loss = NaN.

Traceback...

tensorflow.contrib.learn.python.learn.monitors.NanLossDuringTrainingError: NaN loss during training.

Traceback问题源于以下行:

tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,

hidden_units=[300, 300, 300],

#optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001),

n_classes=11,

model_dir="/tmp/iris_model")

我尝试过调整优化器,将学习率设置为零,并且不使用优化器,然并卵。

最佳回答

常见的导致模型发散(Nan问题)原因:

学习率太高。损失是否开始增加然后发散到无穷大。

我对DNNClassifier不熟悉,但是我猜想它使用了分类交叉熵代价函数。这涉及获取预测的对数,该对数随着预测接近零而

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值