笔记——nan陷阱

在使用dropout改进识别猫的神经网络时遇到NaN问题,参考博客通过在分母使用clip()函数避免除以接近0的情况。尽管如此,最终结果仍存在较大偏差,可能仍受NaN影响。此外,介绍了L2正则化的dAL求导不受L2范数影响。
摘要由CSDN通过智能技术生成

参考http://blog.sina.com.cn/s/blog_6ca0f5eb0102wr4j.html#cmt_5A0D972D-72F73880-BE365276-926-938https://mp.csdn.net/postlist

前面已经提到,后期会使用dropout等算法来对识别猫的神经网络进行改进,在实际操作过程中,却遇到了nan的问题

def backward_propagation_with_dropout(AL, Y, caches, keep_prob = 0.5):# caches = A, W, b, Z
    grads = {}
    L = len(caches)
    m = AL.shape[1]
#     print(Y.shape)
#     print(AL.shape)
    Y = Y.reshape(AL.shape)
    
    dAL = -np.divide(Y, np.clip(AL,1e-6,1.0) - np.divide(1 - Y, np.clip((1 - AL),1e-6,1.0)))
    
    current_cache = caches[L-1]#有的内容是从0到L-1
    grads["dA"+str(L)], grads["dW"+str(L)], grads["db"+str(L)] = activation_backward_dropout(dAL, current_cache, activation = "sigmoid", keep_prob &
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值