BN / LN / IN / GN /

这篇博客探讨了两种不同的批量归一化(Batch Normalization)实现方式,一种是博主自定义的Python代码,另一种是使用PyTorch内置的BN层。虽然作者对自定义代码持保留态度,但通过示例展示了它们如何应用于随机生成的数据,并进行了等效性验证。
摘要由CSDN通过智能技术生成

在这里插入图片描述
这个博客讲的不错,请跳转

但是代码不敢苟同! 所以自己写了两种代码!
由于这只是测试, 并不是用来训练, 所以α和β参数就没有加!

def BN(inputs):
    c = inputs.shape[1]
    for i in range(c):
        channel = inputs[:,i,:,:]
        mu = np.mean(channel)
        var = np.var(channel)
        channel_new = ((channel - mu)/(np.sqrt(var + 1e-5))  )  * 1 + 0
        inputs[:,i,:,:] = channel_new
    return inputs

def BN1(inputs):
    x = inputs.transpose(1,0,2).reshape(3, -1)  # 需要将整个 B * H * W全部归一化为一个数
    mu = np.mean(x, axis=-1).reshape(1, 3, -1)
    var = np.var(x, axis=-1).reshape(1, 3, -1)
    inputs = (inputs - mu) / np.sqrt(var + 1e-5)
    return inputs.reshape(1, 3, 2, 2)


np.random.seed(2022)
torch_bn = nn.BatchNorm2d(3)
x = (np.random.randn(1,3,2,2)) * 10
print(x)
y = BN1(x.reshape(1, 3, -1))
z = torch_bn(torch.tensor(x, dtype=torch.float32))
print(y)
print(z)
Python中,归一化GN(Group Normalization)可以通过以下方式实现: 1. 首先,进行初步归一化,根据引用可知,这一步骤通过对输入进行标准化来减少内部协变量偏移。省略了具体的变换过程。 2. 接下来,通过使用γ和β进行进一步的变换。γ和β是可学习的参数,可以调整标准化后的输入数据。具体的变换公式为:results = γ * x_normalized + β。 3. 最后,根据引用的示例代码,可以通过定义一个函数来实现GN的归一化。在这个函数中,输入x的维度为[B, C, H, W],其中B表示batch size,C表示通道数,H和W表示高度和宽度。函数通过计算均值和方差来标准化输入,然后使用γ和β来进行进一步的变换。最后返回归一化后的结果results。 总结起来,归一化GN是一种在神经网络中常用的归一化方法,可以在Python中通过计算均值和方差,使用γ和β进行变换来实现。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [关于归一化BN IN LN GN相关梳理](https://blog.csdn.net/weixin_44492824/article/details/124025689)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [python 归一化总结:BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm](https://blog.csdn.net/weixin_43905052/article/details/123367112)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值