nn.BatchNorm2d()函数详解

一、实例应用:

        if module_def["type"] == "convolutional":   # 如果类型是convolutional,添加Con卷积层conv_{module_i}
            bn = int(module_def["batch_normalize"])
            filters = int(module_def["filters"])
            kernel_size = int(module_def["size"])
            pad = (kernel_size - 1) // 2
            modules.add_module(
                f"conv_{module_i}",
                nn.Conv2d(
                    in_channels=output_filters[-1],
                    out_channels=filters,
                    kernel_size=kernel_size,
                    stride=int(module_def["stride"]),
                    padding=pad,
                    bias=not bn,
                ),
            )
            if bn:   # 添加batch_norm_{}层归一化处理,添加BN层batch_norm_{module_i}
                modules.add_module(f"batch_norm_{module_i}", nn.BatchNorm2d(filters, momentum=0.9, eps=1e-5))
            if module_def["activation"] == "leaky":   # leaky处理,添加leaky层leaky_{module_i}
                modules.add_module(f"leaky_{module_i}", nn.LeakyReLU(0.1))

二、nn.BatchNorm2d()函数详解:

函数语法格式和作用

torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)

**作用:**卷积层之后总会添加BatchNorm2d进行数据的归一化处理,这使得数据在进行Relu之前不会因为数据过大而导致网络性能的不稳定。

参数解释

  • num_features:一般输入参数为batch_size×num_features×height×width,即为其中特征的数量
  • eps:分母中添加的一个值,目的是为了计算的稳定性,默认为:1e-5
  • momentum:一个用于运行过程中均值和方差的一个估计参数
  • affine:当设为true时,会给定可以学习的系数矩阵gamma和beta
  • 9
    点赞
  • 57
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值