PyTorch入门实战教程笔记(二十):卷积神经网络CNN 2

PyTorch入门实战教程笔记(二十):卷积神经网络CNN 2

Batch Norm

详细相关论文解读可参考:Batch Normalization(BN层)网络详解,下面我们简要的分析一下,比如我们使用Sigmoid函数时,如果数据过小或者过大会出现梯度弥散的情况(即梯度为零),会很长时间得不到更新,我们会避免使用Sigmoid函数,而是用Relu函数。但是有些场合我们必须使用Sigmoid函数,因此我们有必要把输入的值控制在一定范围内,在输入下层之前,先做一个标准化(normalization)操作,变化到以0为均值,以σ为方差,希望值能够落在0附近,这样再做下一层操作就能够非常方便快捷。
在这里插入图片描述

  1. 在Image Normalization上面有应用,因为图片数据保存在[0, 1]中间,我们做一个Normalization,统计出来三通道(RGB)对应的均值0.485,0.456,0.406,统计出来的方差为 0.229,0.224,0.225。然后经R通道的数据 (xr-0.485)/0.485,G、B通道类似计算。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值