Kernel Based Progressive Distillation for Adder Neural Networks:基于核的渐进式蒸馏的加法神经网络

一.简介

加法器神经网络(ANN)提供了一种低能耗深层神经网络的新方法。但是,当用加法替换所有卷积时,精度会下降。作者认为这主要是由于使用L1范数前向传播的ANN优化比较困难带来的问题。在训练原始ANN时,反向传播的梯度使用的是L2范数来近似,因此梯度方向是不准确的。在本文中,作者提出了一种新的方法,通过基于核的渐进式知识蒸馏(PKKD)方法,进一步提高了人工神经网络的性能,而又不增加可训练的参数。
方法为:具有相同架构的卷积神经网络(CNN)被初始化和训练为T-net,ANN和CNN的特征和权重将被转换到一个新的空间,即使用基于核的方法在更高维的空间中进行处理,消除它们的分布差异,应用知识蒸馏的方法进行学习。最后,根据ground-truth和T-net的信息逐步学习所需的信息。

二.问题解决

作者想用具有相同架构和可学习参数数量的卷积网络来帮助训练S-net。此时困难就出现了,作者分别分析ANN和CNN中的权重分布,发现ANN中的权重服从拉普拉斯分布,而CNN中权重参数通常是高斯分布,因此想要直接匹配两者的特征信息是十分的困难的,正是基于此,作者开发了一种基于核的方法来将这两种神经网络的特征和权重映射到同一个空间去寻求一致性。
CNN使用高斯核,ANN使用拉普拉斯核,来转换特征和权重到一个新的空间,然后再利用知识蒸馏的方法将有用的T-net信息传递到S-net,此外,作者采用渐进式蒸馏方法来指导ANN的训练,进一步提升精度。

2.1问题提出

首先我们来回顾CNN与ANN前向传播操作:
Y ( u , v , c ) = X ∗ F = ∑ i = 1 d ∑ j = 1 d ∑ k = 1 c i n X ( u + i , v + j , k ) ⋅ F ( i , j , k , c ) Y(u,v,c)=X* F=\sum_{i=1}^d\sum_{j=1}^d\sum_{k=1}^{c_{in}}X(u+i,v+j,k)\cdot F(i,j,k,c) Y(u,v,c)=XF=i=1dj=1dk=1cinX(u+i,v+j,k)F(i,j,k,c)
Y ( u , v , c ) = X ⊙ F = − ∑ i = 1 d ∑ j = 1 d ∑ k = 1 c i n ∣ X ( u + i , v + j , k ) − F ( i , j , k , c ) ∣ Y(u,v,c)=X\odot F=-\sum_{i=1}^d\sum_{j=1}^d\sum_{k=1}^{c_{in}}|X(u+i,v+j,k)- F(i,j,k,c)| Y(u,v,c)=XF=i=1dj=1dk=1cinX(u+i,v+j,k)F(i,j,k,c)
但是相同结构的CNN和ANN还是有比较大的精度差别,本文就是为了解决这个问题。

2.2初步解决方案

作者想通过知识蒸馏的方法来提升ANN的精度:
我们来回顾一下KD loss function:
L k d = ∑ i = 1 n H c r o s s ( y s , y t ) L_{kd}=\sum_{i=1}^nH_{cross}(y_s,y_t) Lkd=i=1nHcross(ys,yt)
H c r o s s H_{cross} Hcross也就是交叉熵损失, y s y_s ys也就是S-net网络的输出, y t y_t yt也就是T-net的输出
传统的KD loss使用软标签融合ground-truth和T-net的输出,因此有:
L b l e n d = ∑ i = 1 n { α H c r o s s ( y s , y t ) + H c r o s s ( y s , y g t ) } L_{blend}=\sum_{i=1}^n\{\alpha H_{cross}(y_s,y_t)+H_{cross}(y_s,y_{gt})\} Lblend=i=1n{αHcross(ys,yt)+Hcross(ys,ygt)}
(有关知识蒸馏的具体细节可以在网上查阅)
作者提到,由于CNN和ANN使用相同的神经网络结构,因此更容易学到一些每层间的知识。从此处开始探索如何应用知识蒸馏的方法进行学习。

2.3具体分析

两者前向传播函数大不相同,而ANN输出分布函数和CNN输出分布函数也有很大的不同:
CNN:
i a ( x ) ∗ w a ( x ) = ∫ − ∞ ∞ i a ( t ) ⋅ w a ( x − t )   d t = ∫ − ∞ ∞ i a ( t ) ⋅ 1 2 π σ e − ( x − t ) 2 2 σ 2 d t i_a(x)* w_a(x)=\int_{-\infty}^{\infty}i_a(t)\cdot w_a(x-t)\,{\rm d}t=\int_{-\infty}^{\infty}i_a(t)\cdot\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-t)^2}{2\sigma ^2}}{\rm d}t ia(x)wa(x)=ia(t)wa(xt)dt=ia(t)2π σ1e2σ2(xt)2dt
ANN:
i a ( x ) ⊙ w a ( x ) = ∫ − ∞ ∞ ∣ i a ( t ) − w a ( x − t ) ∣   d t = ∫ − ∞ ∞ ∣ i a ( t ) − 1 2 λ e ∣ x − t ∣ λ ∣ d t i_a(x)\odot w_a(x)=\int_{-\infty}^{\infty}|i_a(t)-w_a(x-t)|\,{\rm d}t=\int_{-\infty}^{\infty}|i_a(t)-\frac{1}{2\lambda}e^{\frac{|x-t|}{\lambda}}|{\rm d}t ia(x)wa(x)=ia(t)wa(xt)dt=ia(t)2λ1eλxtdt
通过比较以上两个输出分布函数可以看出,除非巧妙设计输入的分布,否则ANN与CNN的分布几乎不可能相同。因此很难通过MSEloss来匹配输出特征。因此不能套用原来的蒸馏方法。

2.4问题解决——用核方法来解决这个问题

首先我们先来看一下本文中用到的两个核函数:
高斯核: k ( x , y ) = e − ∣ ∣ x − y ∣ ∣ 2 2 σ 2 k(x,y)=e^{-\frac{||x-y||^2}{2\sigma^2}} k(x,y)=e2σ2xy2
拉普拉斯核: k ( x , y ) = e − ∣ ∣ x − y ∣ ∣ σ k(x,y)=e^{-\frac{||x-y||}{\sigma}} k(x,y)=eσxy
基于以上两个函数更改前后输出特征对比:
CNN: h ( x c m , f c m ) = x c m ∗ f c m → h ( x c m , f c m ) = e − x c m ∗ f c m 2 σ 2 h(x_c^m,f_c^m)=x_c^m*f_c^m\rightarrow h(x_c^m,f_c^m)=e^{-\frac{x_c^m*f_c^m}{2\sigma ^2}} h(xcm,fcm)=xcmfcmh(xcm,fcm)=e2σ2xcmfcm
ANN: g ( x a m , f a m ) = x a m ∗ f a m → g ( x a m , f a m ) = e − x a m ⊙ f a m σ a g(x_a^m,f_a^m)=x_a^m*f_a^m\rightarrow g(x_a^m,f_a^m)=e^{-\frac{x_a^m\odot f_a^m}{\sigma _a}} g(xam,fam)=xamfamg(xam,fam)=eσaxamfam
这便将输入和权重映射到更高维度的空间。在新的空间输出特征图。
我们可以看到此处新的公式高斯核的形式有所改变,但是效果是不变的,作者在原文中给出了证明:
在这里插入图片描述
除了使用核函数,作者还提到进一步用线性变换来匹配新输出的两个分布。
总结就是选取合适的核函数的参数——平滑输出分布,并使用线性变换,减小输出特征分布差异,更好的匹配两者的特征。
因此,作者将用于计算KD loss的中间层输出定义为:
CNN: y C m = ρ ( h ( x C m , f C m ) , w ρ c m ) y_C^m=\rho(h(x_C^m,f_C^m),w_{\rho c}^m) yCm=ρ(h(xCm,fCm),wρcm)
ANN: y a m = ρ ( g ( x a m , f a m ) , w ρ a m ) y_a^m=\rho(g(x_a^m,f_a^m),w_{\rho a}^m) yam=ρ(g(xam,fam),wρam)
w ρ a , w ρ c w_{\rho a},w_{\rho c} wρa,wρc分别是ANN,CNN的线性变换层的参数。
将KD loss应用于除第一层和最后一层的所有中间层:
L m i d = ∑ i = 1 n ∑ m = 1 M H m s e ( y a m , y c m ) L_{mid}=\sum_{i=1}^n\sum_{m=1}^MH_{mse}(y_a^m,y_c^m) Lmid=i=1nm=1MHmse(yam,ycm)
最后的loss function为:
L = β L m i d + L b l e n d = ∑ i = 1 n ∑ m = 1 M β H m s e ( y a m , y c m ) + ∑ i = 1 n { α H c r o s s ( y s , y t ) + H c r o s s ( y s , y g t ) } L=\beta L_{mid}+L_{blend}=\sum_{i=1}^n\sum_{m=1}^M\beta H_{mse}(y_a^m,y_c^m)+\sum_{i=1}^n\{\alpha H_{cross}(y_s,y_t)+H_{cross}(y_s,y_{gt})\} L=βLmid+Lblend=i=1nm=1MβHmse(yam,ycm)+i=1n{αHcross(ys,yt)+Hcross(ys,ygt)}

2.5渐进式学习

总体算法流程如下:
在这里插入图片描述
作者首先分析了目前某些情况下,知识蒸馏不能很好发挥作用的原因。
1.T-net和S-net的结构差异较大
2.T-net和S-net的训练阶段差别较大
作者经过分析,认为问题主要出现在第二个原因上
因此设计此处具体步骤为:给定一批输入数据,首先用交叉熵损失更新CNN参数,之后ANN使用当前的CNN权重通过KD loss进行学习: L b = β L m i d b + L b l e n d b L^b=\beta L_{mid}^b+L_{blend}^b Lb=βLmidb+Lblendb
b为当前的步数。更新ANN的参数,在进行反向传播时,KD损失仅通过ANN进行反向传播,CNN的学习不受干扰。

三.实验结果分析

实验设置:400epochs,batch size=256,cosine learning rate decay, α / β = { 0.1 , 0.5 , 1 , 5 , 10 } \alpha /\beta=\{0.1,0.5,1,5,10\} α/β={0.10.51510}

3.1基于MNIST数据集将分类结果可视化

在这里插入图片描述
可以看出PKKD ANN兼具了ANN与CNN的特性,既能将不同的类别按照不同的角度分开,又可以把不同的类别分成不同的聚类中心。

3.2不同实验设置对比

在这里插入图片描述
经过实验对比,证明渐进式的学习CNN,以及核方法的有效性。

3.3作者在CIFAR-10,CIFAR-100,ImageNet上分别进行了实验

CIFAR-10,CIFAR-100:
在这里插入图片描述
下面是ResNet-20,ANN-20,PKKD ANN-20的训练和测试epoch与accuracy曲线图:
在这里插入图片描述
可以看出PKKD ANN效果完全超过了CNN,尤其可以看出PKKD ANN训练时精度最低,但是测试时的精度却是最高的,这验证了KD方法有助于防止S-net的过拟合。
采用不同的参数设置的时候的实验效果:
在这里插入图片描述
ImageNet:
在这里插入图片描述
在ImageNet的数据集上,效果也是非常的好,我们可以看出采用ResNet-50的结构的时候PKKD ANN的效果是非常不错的。但是在ResNet-18的网络中PKKD ANN效果却要差于CNN,其原因还有待考究。

四.总结

问题:ANN与CNN精度有差距
提出解决:用知识蒸馏方法解决
问题:CNN与ANN输出特征分布差别较大
提出解决:用核函数的方法映射到高维空间,并用一些tricks缩小CNN与ANN输出特征分布差异
提高:渐进式蒸馏方法同时更新CNN和ANN参数提升精度

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值