【深度学习训练流程】浅析深度学习训练流程

深度学习训练流程是一套固定的模板

  1. optimizer定义,选择不同的optimizer,权重衰减,梯度更新。
  2. scheduler定义,选择不同的scheduler,进行学习率的更新。(可选,可不使用scheduler进行学习率更新,设为None,则学习率为恒定值)
  3. model初始化,选择使用GPU训练还是CPU训练
  4. loss选择优化函数,
for epoch in range(epochs):# 训练几个epoch
    for batch_data in range(train_data):
        # 按照事先定义batch进行shuffle抽取数据,输入模型中训练
        loss = model(**batch_data)
        loss.backward() # 进行梯度反向计算,更新模型所有的权重
        #可选 ,梯度剪裁,防止梯度爆炸
        torch.nn.utils.clip_grad_norm_(
                self.module.parameters(),
                grad_clip
            )
        optimizer.step() # 基于backward的梯度,继续梯度下降计算。
        scheduler.step() # 更新学习率
        optimizer.zero_grad() # 将梯度清零,防止上一个batch的grad对当前batch的影响  (这里有时候会写成 model.zero_grad())
    

model.zero_grad():
将所有模型参数的梯度置为0

optimizer.zero_grad():
清除所有优化的torch.Tensor的梯度

详细请参考:

model.zero_grad() vs optimizer.zero_grad()

理解optimizer.zero_grad(), loss.backward(), optimizer.step()的作用及原理

详解torch.nn.utils.clip_grad_norm_ 的使用与原理

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值