Pytorch代码事项

模型优化器

optimizer.step()和scheduler.step()的区别

optimizer.step()通常用在每个mini-batch之中,而scheduler.step()通常用在epoch里面,但是不绝对,可以根据具体的需求来做。只有用了optimizer.step(),模型才会更新,而scheduler.step()是对学习率 learning rate 进行调整。

optimizer.zero_grad 和 loss.backward 顺序

optimizer.zero_grad(set_to_none=True)   # 清零梯度,或者换成None
loss.backward()         # 反向传播,计算梯度
optimizer.step()        # 更新模型参数

模型初始权重

默认的初始化方法通常是比较简单的随机初始化,例如从均匀分布或正态分布中随机抽取权重值。

显式初始化方法:

  • torch.nn.init.xavier_uniform_: Xavier/Glorot初始化,适用于Sigmoid和Tanh等激活函数。
  • torch.nn.init.xavier_normal_: Xavier/Glorot初始化,适用于Sigmoid和Tanh等激活函数。
  • torch.nn.init.kaiming_uniform_: Kaiming/He初始化,适用于ReLU激活函数。
  • torch.nn.init.kaiming_normal_: Kaiming/He初始化,适用于ReLU激活函数

如果模型不够复杂,可能默认的初始化方法已经足够。然而,对于更深层次或者需要更好的训练效果的模型,显式使用初始化方法是一个好的选择,可以提高模型的性能和稳定性。

模型Normalization

建议调用NN后,进行Batch/Layer Nomalization,再激活函数

加载多个dataloader

使用tqdm

# 两个dataloader长度一致

loader = zip(train_dataloader,train_dataloader_new)

batch_iterator = tqdm(loader, total=len(train_dataloader), desc=f'Processing epoch {epoch:02d}')

for (batch_old, batch_new) in batch_iterator:

不使用tqdm

# 如果两个dataloader长度一样

for (i, data) in enumerate( zip( dataloader1, dataloader2 ) ):

#如果两个dataloader长度不一样
from itertools import cycle
for (i, data) in enumerate( zip( cycle(dataloader1), dataloader2 ) ):

***仅使用zip,迭代器将在长度等于最小数据集的长度时耗尽。 但是,使用cycle时,我们将再次重复最小的数据集,除非迭代器查看最大数据集中的所有样本。

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值