pytorch笔记:归一化

来自B站视频API查阅TORCH.NN
请添加图片描述

  • layer normalization 是针对单个样本,训练和测试的时候行为一致
  • LN 相对于 BN 更适合 RNN,可以降低训练时间
  • LN 中不同样本有不同的归一化参数,以层计算
    -
  • a 是输入,f 是每层具体的操作,g 和 b 是可学习参数
    在这里插入图片描述
  • BN1d 输入是 (n,c,l),用于序列需要转置,BN2d 用于图像,标准差是 torch.var(input, unbiased=False) 有偏估计
  • track_running_stats 和 momentum 是滑动平均,affine 是归一化之后还有仿射
  • instancenorm 适合风格迁移,在时间步处求均值,把随着时间不变的东西消掉了,一系列画里可能是画的风格,在语音里可能是一个人人特有的音色,因此可以理解 instance(实例,情况) norm
  • weight_norm 是函数,输入是一个实例层
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
PyTorch中,归一化是一种常用的数据预处理方法,它可以将数据的数值范围缩放到一个相对固定的范围内,以便更好地进行模型训练和优化。归一化可以通过transforms.Normalize函数来实现。\[1\] 在归一化过程中,首先需要计算数据的均值和标准差。这可以通过torch.mean()和torch.std()函数来计算。然后,使用transforms.Normalize函数将数据进行归一化处理。归一化后的数据可以更好地适应模型的训练过程,提高模型的收敛速度和性能。\[3\] 归一化后的数据可以使得不同特征之间的数值范围相对一致,避免了某些特征对模型训练的影响过大。此外,归一化还可以帮助优化器更好地学习权重值,避免了权重值过大或过小的情况。\[3\] 需要注意的是,归一化只是数据预处理的一部分,它并不能保证模型一定能够收敛到最小值。在训练过程中,损失曲线可能会在一定数值后不再快速下降,但仍然可以缓慢下降。只要迭代次数足够多,损失仍然可以下降到最小值。\[2\] 综上所述,PyTorch中的归一化可以帮助数据更好地适应模型训练,提高模型的收敛速度和性能。它是一种常用的数据预处理方法,可以通过transforms.Normalize函数来实现。\[1\]\[3\] #### 引用[.reference_title] - *1* [【Pytorch基础知识】数据的归一化和反归一化](https://blog.csdn.net/Thebest_jack/article/details/127767330)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [【Pytorch学习笔记九】 深度学习中数据的归一化(Normalization)](https://blog.csdn.net/QH2107/article/details/126674925)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_森罗万象

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值