【Python】【PyTorch】超参数对于训练的影响

示例

Epochs

img

img

img

img

img

img

img

img

img

Batch Size

img

img

img

img

img

img

img

img

img

Learning Rate

img

img

img

img

img

img

img

img

img

总结

Epochs(训练轮数)

  • Test Accuracy: 增加训练轮数可以提高测试准确率,特别是在Test Accuracy尚未收敛时。训练轮数过多可能导致过拟合,反而降低测试的准确率。当训练轮数合适时,测试准确率会逐渐提高并趋于稳定。
  • Test Loss: 在模型尚未收敛时,增加训练轮数可以降低测试损失。但过多的训练轮数可能导致过拟合,进而测试损失上升。当训练轮数合适时,测试损失会逐渐下降并趋于稳定。
  • Train Loss: 训练轮数增加通常会使训练损失逐步下降,直到模型接近收敛为止。当训练轮数合适时,训练损失会趋于稳定。

Batch Size(批量大小)

  • Test Accuracy: 较大的批量大小可以加速训练过程并有助于更稳定的梯度更新,进而提高测试准确率。但是,大的批量大小可能导致模型泛化能力下降(过拟合),降低测试准确率。小的批量大小可以提供更多次的梯度更新,但可能导致训练不稳定。当批量大小合适时,测试准确率会逐渐提高并趋于稳定。
  • Test Loss: 批量大小过大会导致测试损失较高,因为大批量训练可能会陷入局部最优。较小的批量大小可能导致测试损失在训练过程中波动更大。当批量大小合适时,测试损失会逐渐下降并趋于稳定。
  • Train Loss: 较大的批量大小通常会使训练损失平滑且收敛较快,但可能收敛到局部最优解。较小的批量大小则训练损失波动较大,但有可能找到更好的全局最优解。当批量大小合适时,训练损失会逐渐下降并趋于稳定。

Learning Rate(学习率)

  • Test Accuracy: 学习率过高可能使模型在训练过程中无法收敛,导致测试准确率低。学习率过低则训练缓慢,可能需要更多的训练轮数才能达到较高的测试准确率。当学习率合适时,测试准确率会逐渐提高并趋于稳定。
  • Test Loss: 学习率过高可能导致测试损失不稳定且较高,因为模型参数更新幅度过大。学习率过低则导致测试损失下降缓慢。当学习率合适时,测试损失会逐渐下降并趋于稳定。
  • Train Loss: 学习率过高会使训练损失在初期快速下降,但随后可能出现震荡甚至发散(因为模型无法继续收敛)。学习率过低则训练损失下降缓慢,训练效率低。当学习率合适时,训练损失会逐渐下降并趋于稳定。
  • 13
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值