强调一点,我这种理解离数学证明还远得很,只适合入门者看看,尝试去理解
作者的观点是残差网络解决深层网络的梯度消失which will lead to 难以学习,或者说各个参数没啥变化,因为传到自己那的时候loss对某个权重的偏导太小了
这时候
也就是说,如果反向传播的时候链式法则项很小,那我们也还有一个loss对Xd的偏导的补偿,不至于没学到东西而且我们也没有增加新的超参数
强调一点,我这种理解离数学证明还远得很,只适合入门者看看,尝试去理解
作者的观点是残差网络解决深层网络的梯度消失which will lead to 难以学习,或者说各个参数没啥变化,因为传到自己那的时候loss对某个权重的偏导太小了
这时候
也就是说,如果反向传播的时候链式法则项很小,那我们也还有一个loss对Xd的偏导的补偿,不至于没学到东西而且我们也没有增加新的超参数