梯度消失与梯度爆炸 梯度消失:如果某几个方向上的梯度很小时,乘积就可能很小,也就是梯度会很小,更新会很慢 梯度爆炸:如果某几个方向上的梯度很大时,乘积就可能很大,也就是梯度会很大,梯度下降时会越过我们要求的最小值,有可能来回跳动 解决方法: Batch normalization :类似于标准化,过大时会变小,过小时会变大,针对于梯度消失的优化,但是不能很好的解决梯度消失的问题 Gradient clipping:直接将过大的梯度值变小