tenorflow accuracy一直不变,loss一直降低的问题

网络训练时,正确率会一直出现概率等分的情况,使网络无法学习到。

forward = t0f.matmul(Y4, W5)+b5

 

pred = tf.nn.softmax(forward) #softmax

 


#损失函数为交叉熵, log(0) 附近会造成不稳定

loss_function = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=forward, labels=y))

建议在损失函数的定义时,先不采用softmax的回归结果

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值