神经网络搭建部分的tips 1、每轮训练之后要将grad清零 在pytorch中,计算的梯度值会自动累加,因此每轮训练在进行下一次梯度计算前应先将梯度清零。可使用module.zero_grad()进行手动清零操作。 也有些方法中,利用pytorch不自动清零梯度的特性,完成梯度累加。 2、池化函数的默认stride = None 如果不设置stride,默认池化操作中,池化核的移动不会有重叠部分