pytorch梯度累积

pytorch梯度累积

梯度累积技术是为了解决显存不足的问题

for _,(x,y) in enumerate(data_loader):
	optimizer.zero_grad() # 梯度清零
  y_pred=model(x) # 预测
  loss=loss_fn(y,y_pred) # 计算损失
  loss.backward() # 反向传播
  optimizer.step()

pytorch每次前向传播后得到反向传播的计算图,其中变量的梯度不会清空,如果没有optimizer.zero_grad(),将会对变量的梯度进行累积。

accumulation_step=4
for i,(x,y) in enumerate(data_loader):
  y_pred=model(x) # 预测
  loss=loss_fn(y,y_pred) # 计算损失
  loss.backward() # 反向传播
  if (i+1) % accumulation_steps == 0:
  	optimizer.step()
  	optimizer.zero_grad() # 梯度清零

设置了accumulation_steps = 4,只有当小batch运算四次的时候才会进行清空梯度,更新参数,相当于扩大了4倍batch_size

讲一下pytorch梯度累积对bn层影响的看法

batchnormalization在训练阶段会对已经跑过的batch进行均值和方差的计算,计算公式如下

r u n n i n g _ m e a n = ( 1 − m o m e n t u m ) ∗ r u n n i n g _ m e a n + m o m e n t u m ∗ μ running\_mean=(1−momentum)∗running\_mean+momentum∗μ running_mean=(1momentum)running_mean+momentumμ

r u n n i n g _ v a r = ( 1 − m o m e n t u m ) ∗ r u n n i n g _ v a r + m o m e n t u m ∗ σ running\_var=(1−momentum)∗running\_var+momentum∗σ running_var=(1momentum)running_var+momentumσ

其中momentun默认值为0.1,当进行梯度累积的时候,我们每次forward都会进行 m e a n 和 v a r mean和var meanvar的计算,导致记忆的历史mean和var的视野会缩短,更久远的统计信息占比的权重会更小,所以相比于大batch,梯度累积方式的bn层计算的 m e a n mean mean v a r var var会不那么精确,可以调低momentum的值来增强记忆能力,以逼近真实的扩大batch_size的效果

参考文献:

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch中的梯度累积是指在训练过程中,将多个小批量数据的梯度进行累加,而不是每次反向传播后自动清零梯度。这个特性可以通过调用`loss.backward()`来实现,但在梯度累积时需要手动将梯度清零。 梯度累积的好处在于可以在内存有限的情况下使用更大的批量大小,从而提高模型的训练效果。另外,梯度累积还能够支持多任务训练,因为在多任务中共享的张量的梯度会自动累加。 具体实现梯度累积的代码示例如下: ``` optimizer.zero_grad() # 将梯度清零 for i, data in enumerate(train_loader): inputs, labels = data # 前向传播 outputs = model(inputs) loss = criterion(outputs, labels) # 反向传播 loss.backward() if (i+1) % accum_steps == 0: # 每经过 accum_steps 个小批量数据进行一次梯度更新 optimizer.step() # 更新参数 optimizer.zero_grad() # 将梯度清零 ``` 在这个示例中,我们在每经过 `accum_steps` 个小批量数据时进行一次参数更新,并在更新之后将梯度清零。这样就实现了梯度累积的效果。需要注意的是,`accum_steps`需要根据具体的情况进行调整,以平衡内存占用和训练效果。 参考资料: PyTorch默认会对梯度进行累加。即,PyTorch会在每一次backward()后进行梯度计算,但是梯度不会自动归零,如果不进行手动归零的话,梯度会不断累加。 梯度累积时,每个batch仍然正常前向传播以及反向传播,但是反向传播之后并不进行梯度清零,因为PyTorch中的backward()执行的是梯度累加的操作,所以当我们调用N次loss.backward()后,这N个batch的梯度都会累加起来。 在PyTorch的设计原理上,利用梯度累加可以在最多保存一张计算图的情况下进行多任务的训练。另外一个理由是在内存不足的情况下,可以叠加多个batch的梯度作为一个大batch进行迭代。由于PyTorch的动态图和autograd机制,设置梯度为0比较复杂。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值