python神经网络训练损失率nan_张量流神经网络损失值NaN

我试图在一个大数据集上建立一个简单的多层感知器模型,但是我得到的损失值是nan。奇怪的是:在第一个训练步骤之后,损失值不是nan,大约是46(这是奇怪的低。当我运行logistic回归模型时,第一个损失值约为3600)。但是,在那之后,损失值总是nan。我用过tf.打印试着调试它。在

该模型的目标是预测大约4500个不同的类,因此这是一个分类问题。使用时tf.打印,我看到在第一个训练步骤(或通过MLP进行前馈)之后,最后一个完全连接层的预测似乎是正确的(所有数字都在1到4500之间变化)。但是之后,最后一个完全连接的层的输出要么是0,要么是其他常数(0 0 0 0)。在

有关我的模型的一些信息:三层模型。所有完全连接的层。

批量1000

学习率为.001(我也尝试过.1和.01,但没有改变)

使用CrossEntropyLoss(我添加了一个epsilon值来防止log0)

使用AdamOptimizer

学习率衰减为.95

模型的具体代码如下:(我使用的是TF Slim库)input_layer = slim.fully_connected(model_input, 5000, activation_fn=tf.nn.relu)

hidden_layer = slim.fully_connected(input_layer, 5000, activation_fn=tf.nn.relu)

output = slim.fully_connected(hidden_layer, vocab_size, activation_fn=tf.nn.relu)

output = tf.Print(output, [tf.argmax(output, 1)], 'out = ', summarize = 20, first_n = 10)

return {"predictions": output}

任何帮助将不胜感激!非常感谢你!在

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值