Batch-Normlization 算子的实现

104 篇文章 8 订阅

训练是为了更好的推理,就像我们学习是为了更高效的解决问题。好的开始是成功的一半,在神经网络的训练中,权重的初始值非常重要,很多时候,权重初始值的设定关系到神经网路的学习能否成功。这里的原因和各层的激活值分布有关,如果设定了合适的权重初始值,则各层的激活值分布会有适当的广度,从而可以顺利的进行学习。那么,为了使各层拥有适当的广度,“强制性”的调整激活值的分布会怎样呢?实际上,BatchNormlization就是用来干这个的。

Batch Normlization

Batch Normlization 操作中文名是批量归一化,在技术领域,强行将一个英文术语翻译为中文并不会带来任何方便,反而原汁原味的原文词更能反映技术概念的内涵。Batch Norm是2015年提出的方法。虽然问世不久,但是已经被广泛使用了,实际上,看一下机器学习竞赛的结果,就会发现很多通过使用这个方法而获得优异结果的例子,为什么会这样呢? 因为大家普遍认为,Batch Norm有如下优点:

  1. 可以使学习快速的进行(可以增大学习率)
  2. 不那么依赖初始值(对于初始值不那么敏感)
  3. 抑制过拟合

Batch Norm的思路是调整各层的激活值分布使其拥有适当的广度。为此,要向神经网络中插入对数据分布进行正规化的层,即Batch Norm层,如下图所示:

 Batch Norm,顾名思义,以进行学习时的mini-batch为单位,按mini-batch进行正规化,具体而言,就是进行使数据分布的均值为0,方差为1的正规化。用数学公式表达的话,如下所示:

u_B\leftarrow \frac{1}{m}\sum_{i=1}^{m}x_i

\sigma_B\leftarrow \frac{1}{m}\sum_{i=1}^{m}(x_i-u_B)^2

\hat{x}\leftarrow \frac{x_i - u_B}{\sqrt{\sigma_B^2 +\varepsilon} }

这里对mini-batch的m个输入数据的集合

B=\{x_1,x_2,\cdots,x_m\}

求均值u_B和方差\sigma_B^2,然后,对输入数据进行均值为0,方差为1的正规化,式子中的\varepsilon是一个微小值,他是为了防止出现除以0的情况。

式子的目的是将mini-batch的输入数据

B=\{x_1,x_2,\cdots,x_m\}

变换为均值为0,方差为1的数据

\hat{B}=\{\hat{x_1},\hat{x_2},\cdots,\hat{x_m}\}

非常简单,通过将这个处理插入到激活函数的前面或者后面,可以减小数据分布的偏向。接着Batch Norm层会对正规化后的数据进行平移和缩放的变换(就是仿射变换呗),用数学公式表示如下:

y_i\leftarrow \gamma \hat{x_i}+\beta

这里,\gamma\beta是参数,一开始\gamma =1\beta =0,然后再通过学习调整到合适的值。

BN操作并没有损失信息,如果令

\gamma =\sqrt{\sigma^2_B+\varepsilon }

\beta =u_B

则就能恢复原数据,所以

x_i\leftrightharpoons \hat{x_i}

用流程图表示就是:

下面用代码实现:

#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <stddef.h>
#include <stdint.h>
#include <fcntl.h>
#include <unistd.h>
#include <math.h>
#include <sys/ioctl.h>
 
#define DBG(fmt, ...)   do { printf("%s line %d, "fmt"\n", __func__, __LINE__, ##__VA_ARGS__); } while (0)


static void dump_memory(int *buf, int len)
{
    int i;
 
    printf("\n\rramdom number:");
    for (i = 0; i < len; i ++)
    {
        if ((i % 10) == 0)
        {
            printf("\n\r%02d:", i);
        }
        printf("%02d, ", buf[i]);
    }
    printf("\n\r");
    return;
}

static void dump_memory_f(float *buf, int len)
{
    int i;
 
    printf("\n\rramdom number:");
    for (i = 0; i < len; i ++)
    {
        if ((i % 10) == 0)
        {
            printf("\n\r%02d:", i);
        }
        printf("%f, ", buf[i]);
    }
    printf("\n\r");
    return;
}

float caculate_mean(int *buf, int len)
{
	float sum;
	int i;

	sum = 0.00f;
	for(i = 0; i < len; i ++)
	{
		sum += buf[i];
	}
	
	return sum/len;
}

float caculate_fangcha(int *buf, float mean, int len)
{
	float sum,tmp;
	int i;

	sum = 0.00f;
	for(i = 0; i < len; i ++)
	{
		tmp = (buf[i] - mean);
		tmp *= tmp;
		sum += tmp;
	}

	return sqrt(sum / len);
}

void find_max_min(float *buf, int len)
{
	float min,max;
	min = 101.0f;
	max = -1.0f;

	int i;

	for(i = 0; i < len; i ++)
	{
		if(buf[i] > max)
		{
			max = buf[i];
		}

		if(buf[i] < min)
		{
			min = buf[i];
		}
	}
	
	DBG("max:%f, min %f.", max, min);
	return;
}

int main(void)
{
	int   array[100];
	float res[100];
	int i;
	
	for(i = 0; i < 100; i ++)
	{
		array[i] = rand()%100;
	}

	dump_memory(array, 100);

	float mean = caculate_mean(array, 100);

	DBG("mean = %f.", mean);

	float fangcha = caculate_fangcha(array, mean, 100);
	DBG("fangcha = %f.", fangcha);

	for(i = 0; i < 100; i ++)	
	{
		res[i] = (array[i] - mean) / fangcha;
	}

	dump_memory_f(res,100);

	find_max_min(res, 100);

	return 0;
}

程序的逻辑基本上就是将数据位移均值的距离,移动到以0为中心,然后用标准差进行缩放。从而高斯化。

(调试这段程序遇到一个很有意思的现象,虽然和本文主题无关,但是觉得它反映的问题比较深刻,很有必要把它记录下来,就是在两台不同的PC上运行上面的程序,得到的随机数完全相同。看来LIBC库提供的随机数接口是真的“伪”随机接口阿。)

将上面生成的归一化参数输入OCTAVE,用hist函数画直方图。横坐标是数据,纵坐标表示分布概率。

使用 hist(list)绘制直方图

原始数据的直方图:

hist(w,20)查看分布细节:

我们看到,经过BN操作后,并没有影响到数据的分布结构,但对于训练过程来讲,可以很好地将数据“浓缩”在网络各层最适合运行区域,加快训练效率,另外也可以看到,如果原数据并非高斯分布,则BN仍旧保留原数据的分布,不会将其改变为高斯分布,结果不必是高斯分布。

高斯分布

w=-6+sqrt(10)*(randn(1,100000))
hist(w,50)

BN在实际网络中的测试:

测试程序来源于以下链接:图灵社区

下载后,进入ch06目录,执行python batch_norm_test.py,会看到如下输出:

程序中建立了两个同类型的网络,区别在于分别带有BN层和不带BN层,之后进行训练,并分析精度数据和训练效率。

学习参数:

BN将数据白化之后,还要进行一个仿射变换,仿射变换的系数分别就是\gamma\beta,这两个参数是需要训练的,也就是说,BN层给网络增加了可训练的参数数量。下面截图是程序中BN层的训练过程调用逻辑。

y_i\leftarrow \gamma \hat{x_i}+\beta

batch_size是shape的第一个成员

 参考资料:

Understanding the backward pass through Batch Normalization Layerhttps://kratzert.github.io/2016/02/12/understanding-the-gradient-flow-through-the-batch-normalization-layer.html

结束! 

  • 8
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

papaofdoudou

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值