batchnorm2d参数 torch_pytorch方法测试详解——归一化(BatchNorm2d)

本文深入介绍了PyTorch中BatchNorm2d模块的使用,通过测试代码展示了如何进行归一化操作,包括权重、偏重的计算,并解释了输出的计算公式以及未使用Bessel's Correction的方差计算。
摘要由CSDN通过智能技术生成

测试代码:

import torch

import torch.nn as nn

m = nn.BatchNorm2d(2,affine=True) #权重w和偏重将被使用

input = torch.randn(1,2,3,4)

output = m(input)

print("输入图片:")

print(input)

print("归一化权重:")

print(m.weight)

print("归一化的偏重:")

print(m.bias)

print("归一化的输出:")

print(output)

print("输出的尺度:")

print(output.size())

# i = torch.randn(1,1,2)

print("输入的第一个维度:")

print(input[0][0])

firstDimenMean = torch.Tensor.mean(input[0][0])

firstDimenVar= torch.Tensor.var(input[0][0],False) #Bessel's Correction贝塞尔校正不会被使用

print(m.eps)

print("输入的第一个维度平均值:")

print(firstDimenMean)

print("输入的第一个维度方差:")

print(firstDimenV

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
nn.BatchNorm2d的requires_grad属性决定了在训练过程中是否对该层的参数进行梯度更新。如果requires_grad为True,则该层的参数将参与梯度计算和反向传播,并进行参数更新。如果requires_grad为False,则该层的参数将被固定,不参与梯度计算和参数更新。 引用中提到了nn.BatchNorm2D是PaddlePaddle库中实现二维批量归一化操作的类,但对于requires_grad属性的具体说明并未提及。 引用中展示了如何在模型只在一块GPU上跑时通过改变param的requires_grad属性来控制参数更新。 引用中给出了torch.nn.BatchNorm2d类的构造函数,但对requires_grad属性的具体说明也没有提及。 因此,根据提供的引用内容,无法确定nn.BatchNorm2d的requires_grad属性的具体取值。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [常见的类 nn.Conv2dnn.BatchNorm2Dnn.AdaptiveAvgPool2d](https://blog.csdn.net/xiaoyuting999/article/details/129800756)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Pytorch训练过程中改变模型参数 requires_grad 属性](https://download.csdn.net/download/weixin_38550834/14885173)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [torch.nn.BatchNorm1d和torch.nn.BatchNorm2d](https://blog.csdn.net/chen_kl86/article/details/131389696)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值