类脑计算论文泛读

  上学期听了何毓辉老师的《类脑计算与器件》课程,本文也是对上学期上课内容的大体总结。

参考文献:

忆阻器

  忆阻器是一种统称,它一般指电导可以连续调节,并且调节结果可以保存的器件。主要有:阻变存储器、相变存储器、铁电晶体管、浮栅晶体管等。
在这里插入图片描述
  阻变存储器以氧化铪HfO2为例,它有一半低阻区(LR)一半高阻区(HR)。在两端加较小的电压时,LR和HR之间的界面几乎不会移动;加比较大的电压时,会有氧空位(Oxygen Vacancies)在界面之间移动,造成界面的漂移。LR区域越多,整体的电导越大,反之HR区域越多,电导越小。外加电压与电导的调整量不是线性关系,外加电压主要加在HR区域上,随着HR区域的减小,HR区域中的场强会越来越大,氧空位移动速度会加快。除此之外,氧空位自己也会发生漂移,这为器件带来了很大的随机性。
  相变存储器(Phase Change Memory,PCM),是依靠晶态与非晶态的变化来改变电导的一种器件。它从非晶态(amorphous)向晶态(cubic)变化时,电导值可以连续增加,但是从晶态到非晶态的过程中电导是突变的,这和它的物理机制有关。
在这里插入图片描述

  从非晶态到晶态的过程称为“annealing”,对应上图中的加Set温度曲线,温度要超过结晶温度 T c r y s \rm T_{crys} Tcrys,但不能到达熔融温度。从晶态到非晶态的过程称为“melt-quenching”,需要将温度身高到熔融温度 T m e l t \rm T_{melt} Tmelt,并快速降温,对应图中的Reset曲线。
  那么如何做到对器件的温度控制呢?实际上就相当于电阻发热,发热功率是 V 2 / R V^2/R V2/R,所以在读PCM的电导值是,外加一个小电压,也会产生一定的热效应,对应图中的Read曲线。
在这里插入图片描述

  用于人工神经网路的忆阻器,我们比较关心它的线性度。长时增强效应(long term potentiation, LTP)和长时抑制效应(long term depression,LTD)是两个重要的衡量指标。阻变存储器的LTP和LTD虽然可能没有上图中那么线性,但大体还是有缓慢增加或减少的趋势,而相变存储器的LTD则是电导值始终位置在较低的水平。
  铁电晶体管与浮栅晶体管的原理类似。浮栅晶体管是Nand Flash的基本构成单元,它的栅介质层中有一个“浮栅”,主要材料是多晶硅。在外加电压作用下,衬底电荷利用隧穿效应可以在浮栅与衬底之间穿梭,电荷能够留存在浮栅中,起到保存沟道电导值的目的。铁电晶体管的栅介质层是铁电材料,它可以被外加电压极化,并维持极化的状态。

1T1R突触结构

  论文[1]中介绍了利用1个晶体管+1个RRAM作为突触,利用感知机模型实现人脸分类。人脸图像20×16个像素,训练样本包含三个不同的人的人脸。
f ( x ) = s i g n ( ω T x + b ) f(x) = {\mathop{\rm sign}\nolimits} \left( { {\omega ^T}x + b} \right) f(x)=sign(ωTx+b)
  从算法层面说,每个样本320维,权值 ω \omega ω也是320维,每个样本带有一个标签,将样本送入感知机,得到结果,与预期结果对比,利用梯度下降法更新权值。感知机模型中用的符号函数 s i g n ( ) \rm sign() sign()不是连续可导的,不能用梯度下降法,因此可以用双曲正切函数近似。

f ( x ) = tanh ⁡ ( ω T x + b )        tanh ⁡ ( a ) = sinh ⁡ a cosh ⁡ a = e a − e − a e a + e − a f(x) = \tanh \left( { {\omega ^T}x + b} \right)\;\;\;\tanh (a) = { {\sinh a} \over {\cosh a} } = { { {e^a} - {e^{ - a} } } \over { {e^a}{\rm{ + } }{e^{ - a} } } } f(x)=tanh(ωTx+b)tanh(a)=coshasinha=ea+eaeaea
在这里插入图片描述

  但从算法方面考虑这一问题比较简单,硬件实现会有一些额外的问题。在硬件上,每个突触与一个权值对应。突触阵列能够方便地完成向量矩阵乘法(VMM),因为它是并行的乘加运算。所以RRAM阵列很适合用来做前向推理,但是更新权值比较麻烦。
  它非常依赖外部的计算资源,比如梯度下降法计算权值的更新量,这是在阵列外部完成的,我们需要考虑更改权值也就是突触电导值的策略。

层面法则1法则2
算法Delta RuleManhattan Rule
硬件Write with VerifyWirte without Verify

  主要有两种方式,“Delta Rule”就是精准改变权值,计算出 ω \omega ω需要改变多少就改变多少。而前面提到RRAM的电导调整是非线性的,因此每次改电导值都需要再读出来确认是否改到位了。  另一种方式是“Manhattan Rule”,它只关心权值改变的方向,比如 ω \omega ω需要增大,那么这次修改就增大一次 ω \omega ω对应的电导值,而不关心实际电导变为了多少。后者因为没有验证权值更新的过程,所以相对来说需要更多的样本才能收敛,前者在修改单个权值时是do-while循环,时间不可控,而后者每次修改单个权值不需要循环,非常快。从总的时间上来说前者需要的时间更多,但考虑到功耗和训练结果等指标后,前者的性能更好。
  还有“Online learning”和“Batch learning”的概念的区分。人工神经网络通常采用Batch learing。Batch learning需要一次性输入一批数据,然后把每个权值的权重改变量累加。这样做使得每次权重调整更容易找到整体的梯度下降最快的方向,缺点是需要对一批数据进行存储。而Online learning则是每次输入一个样本就调整一次权重,与Batch learning相比不需要暂存权重改变量,但是它需要对权值调整很多次,而且不同的样本输入顺序可能会得到不同的学习结果。
  人工神经网络所采用的的器件的耐久是有限的,不管是浮栅晶体管的隧穿效应还是RRAM内的晶格碰撞,都会损害器件的寿命。所以人们一般希望对权重的改写次数少一些,所以采用Batch learning的策略较多。
  忆阻器件作为神经网络突触还会考虑到很多因素。multilevels和retention之间有一个trade-off。multilevels和神经网络的训练精度有关,因为一个特定的能态对应于一个突触的权值,在一定范围内能态越多,权值的精度越高。随着能态的增多,能态之间的间隔越来越小,容易发生隧穿,所以它的保持特性retention会比较差。还有器件的variation也是一个比较严重的问题,variation包括Part to Part(aka. PtP) variation和Device to Device(aka. DtD) variation。但就像大脑有代偿能力,神经网络里的一个突触如果出了问题,还有其它突触也能够进行补偿。

潜行通路

  1T1R用一个晶体管来选通RRAM,实际上一个晶体管的面积非常大,所以我们可以想办法把晶体管省去。但如果仅仅是把晶体管省去,就会引入潜行通路的问题。
  在存在晶体管的时候,晶体管起到选通的作用。利用晶体管的导通和关断可以同时对多个RRAM调整电导值。没有了晶体管之后就只能逐个对单个突触的电导值进行修改。相当于用一根字线和一根位线选中一个bit,而其余字线和位线都悬空。之所以悬空而不是接固定电平是出于功耗的考虑,这一悬空带来的问题就是潜行通路。

在这里插入图片描述

  如上图所示,我们希望 V i V_i Vi只通过蓝色的路线对 I j I_j Ij有贡献,但实际上由于 V i + 1 V_{i+1} Vi+1悬空, V i V_i Vi还会通过绿色的路线对 I j I_j Ij产生贡献,这就是潜行通路(sneak path)。

1S1R突触结构

  针对潜行通路的问题主要有两种办法,一种是用类似二极管的器件切断潜行通路,另一种是用差分对的结构进行补偿。这里先介绍第一种,就是1S1R的结构。
在这里插入图片描述
  1S1R中的S指的是选通管(Selector),它是一种类似二极管的器件,但相比于二极管,它的正向导通压降更低(几乎没有),它的传输特性曲线如上图所示。它的一个重要的特性就是它导通后,只要电压不低于Vhold就能维持在低阻态。
在这里插入图片描述

  选通管几乎不会占用多余的面积,它与RRAM的工艺兼容性更好。如上图所示,它能够直接切断潜行通路。

差分对突触结构

  第二种解决潜行通路的办法是引入差分对。
在这里插入图片描述

  用两个突触电导的差来代表权重。

G i j = G i j + − G i j − {G_{ij} } = G_{ij}^ + - G_{ij}^ - Gij=Gij+Gij

  对于电流 I j + I_j^+ Ij+,我们可以把它的组成分为三类,一类是 V i V_i Vi仅通过 G i j + G_{ij}^ + Gij+产生的电流;一类是 V i V_i Vi经过 I j − I_j^- Ij所在路径的潜行通路电流,注意这部分电流不只图中画的蓝色部分,类似蓝色部分的电流还有好多条,可以把这部分电流对应的电导记作 Δ G 1 \Delta G_1 ΔG1;最后一类是 V i V_i Vi通过其它的潜行通路产生的电流,记作 Δ G 2 \Delta G_2 ΔG2

I j + = V i G i j + + V i ( Δ G 1 + Δ G 2 ) I j − = V i G i j − + V i ( Δ G 1 ′ + Δ G 2 ) \begin{array}{l} I_j^ + = {V_i}G_{ij}^ + + {V_i}(\Delta {G_1} + \Delta {G_2})\\ I_j^ - = {V_i}G_{ij}^ - + {V_i}(\Delta G_1' + \Delta {G_2}) \end{array} Ij+=ViGij++Vi(ΔG1+ΔG2)Ij=ViGij+Vi(ΔG1+ΔG2)

  当输入向量维度比较大时,可以把 Δ G 1 \Delta G_1 ΔG1 Δ G 1 ′ \Delta G_1' ΔG1看做近似相等,那么:

I j + − I j − = V i ( G i j + − G i j − ) I_j^ + - I_j^ - = {V_i}(G_{ij}^ + - G_{ij}^ - ) Ij+Ij=Vi(Gij+Gij)

  这样就抵消了潜行通路的影响。论文[2]就是采用了这样的设计方法。
在这里插入图片描述

  文中作者实现了对“Z”、“V”、“R”三种模式的识别,每个字母都是一个3×3的样本。值得注意的技巧是,作者改写电导值用的“半电压”。写电压为 V w V_w Vw,在突触两端分别施加 V w / 2 V_w/2 Vw/2 − V w / 2 -V_w/2 Vw/2来达到改写电导值的目的,这么做有利于降低功耗。
  还有一个需要考虑的问题是,现在 G G G是由两个数相减得到的,当我需要增大 G G G时,是增大被减数还是减小减数?这个和器件的LTP、LTD有关。比如PCM的LTD反应出它的电导值不能连续减小,因此它不适合采用减小减数的方法。
  器件的电导值是有界的,比如我采用PCM作为突触,增大权重采用增大 G + G^+ G+的方法,减小权重采用增大 G − G^- G的方法,那么它们俩的电导值肯定在一段时间后会达到极限。因此需要每过一段时间将 G + − G − G^+-G^- G+G读出,然后将电导值都复位,重新将差值写入 G + G^+ G+ G − G^- G

反向传播

  反向传播的思想非常简单,利用梯度下降法令损失 L L L最小。
在这里插入图片描述

  上图是传统神经网络的最后一层,第k层。每有一组权值矩阵 W W W称为一层。权值矩阵 W W W的改变正比于当前 W W W在损失函数上的梯度。
Δ W k ∼ ∂ L ∂ W k \Delta {W^k} \sim { {\partial L} \over {\partial {W^k} } } ΔWkWkL
  为了简化推导,先约定一些记号:
x = [ x 1 k − 1 x 2 k − 1 x 3 k − 1 ]      W = [ ω 11 k ω 12 k ω 21 k ω 22 k ω 31 k ω 32 k ]      s = [ s 1 k s 2 k ]      y = [ y 1 y 2 ]      y t = [ y 1 t y 2 t ] x{\rm{ = } } {\begin{bmatrix} {x_1^{k - 1} }\\ {x_2^{k - 1} }\\ {x_3^{k - 1} } \end{bmatrix} }\;\;W = {\begin{bmatrix} {\omega_{11}^k}&{\omega_{12}^k}\\ {\omega_{21}^k}&{\omega_{22}^k}\\ {\omega_{31}^k}&{\omega_{32}^k} \end{bmatrix} }\;\;s = {\begin{bmatrix} {s_1^k}\\ {s_2^k} \end{bmatrix} }\;\;y = {\begin{bmatrix} { {y_1} }\\ { {y_2} } \end{bmatrix} }\;\;{y_t} = {\begin{bmatrix} {y_1^t}\\ {y_2^t} \end{bmatrix} } x=x1k1x2k1x3k1W=ω11kω21kω31kω12kω22kω32ks=[s1ks2k]y=[y1y2]yt=[y1ty2t]

  写出 L L L关于 W W W的全微分式:
d L = t r ( ( ∂ L ∂ W ) T d W ) dL = {\mathop{\rm tr}\nolimits} \left( { { {\left( { { {\partial L} \over {\partial W} } } \right)}^T}dW} \right) dL=tr((WL)TdW)
  这么直接求梯度没法求,需要分解步骤。
d L = ( ∂ L ∂ s ) T d s = ( ∂ L ∂ s ) T ( d W ) T x dL = {\left( { { {\partial L} \over {\partial s} } } \right)^T}ds = {\left( { { {\partial L} \over {\partial s} } } \right)^T}{\left( {dW} \right)^T}x dL=(sL)Tds=(sL)T(dW)Tx
  引入中间变量 s s s s s s是1×2的列向量。又因为 L L L是标量,所以可以直接对右边求迹。
d L = t r ( ( ∂ L ∂ s ) T ( d W ) T x ) = t r ( x T d W ( ∂ L ∂ s ) ) = t r ( ( ∂ L ∂ s ) x T d W ) dL = {\mathop{\rm tr}\nolimits} \left( { { {\left( { { {\partial L} \over {\partial s} } } \right)}^T}{ {\left( {dW} \right)}^T}x} \right) = {\mathop{\rm tr}\nolimits} \left( { {x^T}dW\left( { { {\partial L} \over {\partial s} } } \right)} \right) = {\mathop{\rm tr}\nolimits} \left( {\left( { { {\partial L} \over {\partial s} } } \right){x^T}dW} \right) dL=tr((sL)T(dW)Tx)=tr(xTdW(sL))=tr((sL)xTdW)
  对比前后两个全微分表达式可以得出:
∂ L ∂ W = ( ( ∂ L ∂ s ) x T ) T { {\partial L} \over {\partial W} } = {\left( {\left( { { {\partial L} \over {\partial s} } } \right){x^T} } \right)^T} WL=((sL)xT)T
  从上面这个梯度计算结果来看,梯度大小只和当前层的输入 x x x和损失函数对求和结果 s s s的偏导数 ∂ L / ∂ s \partial L/\partial s L/s有关。这不光是对最后一层成立,对其余层也都成立。
  每一层的输入 x x x都是已知的,关键是 ∂ L / ∂ s \partial L/\partial s L/s怎么求?定义第k层的损失误差 δ k = ∂ L / ∂ s k \delta^k=\partial L/\partial s^k δk=L/sk。我们从最后一层开始,最后一层是最容易求的。
δ k = ∂ L ∂ s k = ∂ L ∂ y ⊙ [ f k ′ ( s 1 k ) f k ′ ( s 2 k ) ] {\delta ^k} = \frac{ {\partial L} }{ {\partial {s^k} } } = \frac{ {\partial L} }{ {\partial y} } \odot {\begin{bmatrix} { {f^k}'\left( {s_1^k} \right)}\\ { {f^k}'(s_2^k)} \end{bmatrix} } δk=skL=yL[fk(s1k)fk(s2k)]
  计算k-1层的损失误差:

δ k − 1 = ∂ L ∂ s k − 1 = ∂ x k − 1 ∂ s k − 1 ∂ s k ∂ x k − 1 ∂ L ∂ s k = f k − 1 ′ ( s k − 1 ) ⊙ ( W δ k ) {\delta ^{k - 1} } = { {\partial L} \over {\partial {s^{k - 1} } } } = { {\partial {x^{k - 1} } } \over {\partial {s^{k - 1} } } }{ {\partial {s^k} } \over {\partial {x^{k - 1} } } }{ {\partial L} \over {\partial {s^k} } } = {f^{k - 1} }'\left( { {s^{k - 1} } } \right) \odot \left( {W{\delta ^k} } \right) δk1=sk1L=sk1xk1xk1skskL=fk1(sk1)(Wδk)

  这样就得到了一个关于 δ \delta δ的递推公式,这也是“反向传播”这一名称的由来。损失误差 δ \delta δ可以逐层从后向前计算。

Δ W m × n ∼ x m × 1 δ n × 1 T \Delta {W_{m \times n} } \sim x_{m \times 1}{\delta _{n \times 1}^T } ΔWm×nxm×1δn×1T

  利用器件实现反向传播的优势在于,可以利用RRAM阵列很快地计算出 Δ W \Delta W ΔW。因为 Δ W \Delta W ΔW是由一个列向量和一个行向量相乘得到的,可以把它们直接从行列方向送入阵列。
在这里插入图片描述

  光有这样的结构还不行,还需要对输入的数据进行编码。
在这里插入图片描述

  这里截取了论文[3]中的两张图,左边的是算法层面的, x x x δ \delta δ都是连续值。而右图是将 x x x δ \delta δ做了脉冲编码,这里举的例子是将 Δ W \Delta W ΔW量化为5个等级。两者都采用半电压输入,只有两者的脉冲同时有效时才能凑成一个完成的写电压。
在这里插入图片描述

  上图是脉冲 x x x δ \delta δ的脉冲编码方式。

脉冲神经网络

STDP

  Spike Timing Dependent Plasticity,是生物大脑内的一种学习规则。
在这里插入图片描述

   t p r e t_{pre} tpre是前一个神经元被激活的时刻, t p o s t t_{post} tpost是后一个神经元被激活的时刻,神经元之间突触权值的变化量与前后神经元激活时刻的时间差有关。概括起来说就是,时间越近响应越强。

漏电积分点火神经元模型

在这里插入图片描述

  生物细胞中神经元之间的信息传递是依靠钠钾离子的转移改变细胞膜电位实现的。利用一个电容和一个电阻可以建立起这样一个模型,神经元的激活可以用电容两端电压的暂态响应来描述。
C d V d t + V R = I C{ {dV} \over {dt} } + {V \over R} = I CdtdV+RV=I
  在这个电路中,一方面有电阻漏电,另一方面电容对输入电流进行积分。所以称之为“漏电积分点火神经元”(Leaky Integrate-and-Fire neuron, LIF neuron)

在这里插入图片描述

  这是来自论文[4]中的一张截图。它展示了当电容上的电压达到一定的阈值时,这个神经元就会产生一个脉冲信号,表示它被激活。
  实现SNN主要有两种结构,一种是SprikeProp另一种是ReSuMe。

SpikeProp

  用 ε ( t ) \varepsilon(t) ε(t)表示神经元脉冲响应函数。

ε ( t ) = { t τ exp ⁡ ( 1 − t τ ) ,    t > 0 0 ,    t ≤ 0 \varepsilon (t) = \left\{ {\begin{matrix} {\frac{t}{\tau }\exp \left( {1 - \frac{t}{\tau } } \right),\;t > 0}\\ {0,\;t \le 0} \end{matrix} } \right. ε(t)={τtexp(1τt),t>00,t0

在这里插入图片描述

  建立输入层 h h h、一层隐藏层 i i i、输出层 j j j,构成脉冲神经网络。有两层权重需要调整, ω h i \omega_{hi} ωhi ω i j \omega_{ij} ωij。利用梯度下降法经过复杂的计算可以得到近似结果。

Δ ω i j = − η ′ ( t j − t j d ) ε ( t j − t i − d ) \Delta {\omega _{ij} } = - \eta '\left( { {t_j} - t_j^d} \right)\varepsilon \left( { {t_j} - {t_i} - d} \right) Δωij=η(tjtjd)ε(tjtid)
Δ ω h i = η ′ ′ ε ( t i − t h − d ) ∑ j ( t j − t j d ) \Delta {\omega _{hi} } = \eta ''\varepsilon \left( { {t_i} - {t_h} - d} \right)\sum\limits_j {\left( { {t_j} - t_j^d} \right)} Δωhi=ηε(tithd)j(tjtjd)

  权重变化量主要受到两部分控制。一部分是期望的脉冲产生时刻 t d t^d td和实际脉冲产生时刻 t t t的差值;另一部分是前级脉冲输入时刻实际脉冲产生时刻的差值对应的权值改变量 ε ( Δ t ) \varepsilon(\Delta t) ε(Δt),这一部分满足STDP规则。

在这里插入图片描述

  有一个问题是时间量纲的转换。以 Δ ω i j \Delta {\omega _{ij} } Δωij为例,当 t j t_j tj早于 t j d t_j^d tjd,电容充电太快,需要减小电导,因此此时的 t j t_j tj需要对应一个正电压,如上图左侧的 t j t_j tj脉冲所示;反之当 t j t_j tj晚于 t j d t_j^d tjd,需要用电压保持器保持一个负电压,用于后续信号生成。
  下面框图中的Error signal(DC)就是由前面的电压保持电路生成的误差信号。D/A根据误差信号生成Post-pulse3,这一步相当于完成了乘法,再由输入脉冲Pre-pulse2来采样这个电压波形就能够得到 Δ w i j \Delta w_{ij} Δwij对应的电压,并施加到铁电存储器的栅极上。
在这里插入图片描述

  基于三端铁电存储器的突触和LIF神经元电路框图如上图所示。采用三端忆阻器件,使得读写可以同时进行。图中只画出了一个突触,实际上一般会有多个突触同时接到一个神经元上。
  这个框图应该这么看,在神经元没有被“点火”的情况下,神经元不断地对电流积分,此时还不涉及对突触权重的调整。一旦神经元被“点火”,就会有Post-pulse3信号产生,各个突触的电导会根据STDP法则调整,输入脉冲时刻越接近神经元被点火的时刻,那么对应的突触电导提升得就越大。Pre-pulse1和Pre-pulse2输入端还有延时单元,是为了补偿后级电路的延时,使得Pre-pulse2和Post-pulse3在时序上能够对应上。
在这里插入图片描述

  上图展示了电压采样的过程,有两个自由度可以调整 V G S \rm V_{GS} VGS,一个是调节 V P O S T \rm V_{POST} VPOST本身的大小,另一个是采样时刻,对应了 Δ ω i j \Delta \omega_{ij} Δωij的计算过程。
在这里插入图片描述

   ω h i \omega_{hi} ωhi是输入层和隐藏层之间的权重,这一层的误差需要对输出层的误差进行累加,如上图所示。这里除了送入神经元的误差信号与前面不同以外,别的都是一样的。
在这里插入图片描述

  由于误差信号是在输出层产生的,在第一次输入样本的的时候,误差信号并没有产生,因此需要将同一个样本输入两次才能正确更新两层权重。这里是两层神经网络,需要把样本送入两边,那么如果是n层神经网络,需要重复送入几遍?答案还是两遍,因为我们在第一次输入的时候就能获得每一层的误差。

ReSuMe

  SpikeProp的推导相对来说比较复杂,Remote Supervised Method,ReSuMe是另一种较为简单的实现SNN的方式。
在这里插入图片描述

  论文[5]提出了一种用互补石墨烯铁电晶体管(C-GFTs)实现的方案。ReSuMe的基本思想是由两个忆阻器件组成突触,整体电导值是两者之和。其中一个负责增大电导,另一个负责减小电导。
  在输入脉冲到来时产生一个STDP曲线和一个Anti-STDP曲线,在期望脉冲产生的时刻采样STDP曲线,增大电导;在和输出脉冲产生的时刻采样Anti-STDP曲线,减小电导。
  这样只有在期望脉冲产生时刻 t d t_d td和实际脉冲产生时刻 t o u t t_{out} tout重合是才不会改变电导值;脉冲产生时刻超前,则减小电导的作用明显;脉冲产生时刻滞后,则增大电导的作用明显。
  有个值得一提的技巧是,如果始终单向调整电导值,很有可能很快会达到极限。而这里有一个简单的刷新方案,因为两个电导值是相加的关系,所以可以直接交换两个电导的更新方式。原本负责增大电导的忆阻器负责减小电导;原本负责减小电导的忆阻器负责增大电导。

应用

  SNN适合结合动态视觉传感器(Dynamic Vision Sensors, DVS)使用。一个像素由亮变暗和由暗变亮会产生不同的脉冲。在一幅图上构建两张突触网络,一张展现由有亮变暗的像素点,一张展现由暗变亮的像素点。将两者结合起来看就可以看出物体的运动方向。
在这里插入图片描述

  上图截自2012 Neural Networks的Extraction of temporally correlated features from dynamic vision sensors with spike-timing-dependent plasticity,图像数据的表示方式是Address-Event Representation, AER。只有发生明暗变化才会发送数据,比较适合监控场景。

非监督学习

  论文[6]用1T1R的突触结构实现了手写数字识别的非监督学习。它也是遵循STDP的学习法则。只是做了简化,下图是权值改变曲线,它是STDP曲线的一级近似。当后级神经元的脉冲在前级神经元的脉冲之后10ms内产生,则增大权值;反之减小权值。
在这里插入图片描述

  神经元的输出是宽度为10ms的高电平+10ms的低电平,加在后级突触的晶体管栅极。这意味着在神经元被激活之后的10ms内,其后级的突触电导能够被读或者被改写。
在这里插入图片描述

  RRAM的一端接 V T E \rm V_{TE} VTE,叫做Top Electrode,在平常是固定的高电平读电压。前级神经元产生的脉冲会产生读电流,后级神经元不断积分。而在后级神经元被激活的时候,后级神经元会发出一对正负脉冲加载 V T E \rm V_{TE} VTE上,用来改电导值。正脉冲位于前10ms内,负脉冲位于后10ms内。这一简单的设计就实现了 Δ t > 0 \Delta t>0 Δt>0时,正脉冲在窗口期内; Δ t < 0 \Delta t<0 Δt<0时,负脉冲在窗口期内。
在这里插入图片描述

  上图是它实际工作的过程。最后的结果如下图所示,训练之后,10个输出神经元的突触权重正好构成了对应的数字。为了避免产生多个输出,输出神经元之间也有连接,在生物上称为“侧抑制”,“Lateral Inhibition”。也可以称之为“Winner Take All”。就是当其中一个神经元激活时,其它神经元的积分过程直接终止。
在这里插入图片描述

  还有一个值得一提的地方是,训练的时候对背景的抑制也是训练成功的关键。在输入训练样本的时候同时交替输入一些噪声,能够提高学习的效率。这部分噪声产生的脉冲会抑制对应的背景的权值,使得训练效果更好。实验结果表面,引入9%的噪声能够达到最好的学习效率。
在这里插入图片描述

强化学习

  强化学习也很大程度上依赖外部的计算资源,论文[7]是用数模混合的方式实现强化学习的一个例子,但它只是用模拟硬件做向量矩阵运算,在器件层面没有特别的地方。这里简单介绍强化学习的一些基本理论。
在这里插入图片描述

  强化学习算法通过优化策略来使收益最大。把 s s s状态下,采取行动 a a a的概率记为 π ( s , a ) \pi(s,a) π(s,a),它满足:

∑ a π ( s , a ) = 1 \sum\limits_a {\pi \left( {s,a} \right)} = 1 aπ(s,a)=1

  把状态 s s s下,采取行动 a a a,转移到状态 s ′ s' s的奖励记作 R s s ′ a R_{ss'}^a Rssa,采取某个策略 π \pi π的总收益记作 Q π ( s , a ) Q^{\pi}(s,a) Qπ(s,a)
在这里插入图片描述

  上面这个收益相当于是目标函数,需要令其最大,据此优化策略 π \pi π。其中有一个折扣系数 γ \gamma γ,它表示相比于以后的收益,我们更注重当前的收益 R s s ′ a R_{ss'}^a Rssa
  在经典世界的前提下, π ( s , a ) \pi(s,a) π(s,a)只能取1或者0,此时还可以对这一目标函数简化。
Q ( s , a ) = R s s ′ a + γ max ⁡ a ′ Q ( s ′ , a ′ ) Q\left( {s,a} \right) = R_{ss'}^a + \gamma \mathop {\max }\limits_{a'} Q\left( {s',a'} \right) Q(s,a)=Rssa+γamaxQ(s,a)
  所有的 Q ( s , a ) Q(s,a) Q(s,a)可以构成一张Q值表,强化学习的训练过程实际上就是Q值表的更新过程。其中部分用到向量矩阵乘法的计算就可以用忆阻阵列来实现。

卷积神经网络

  论文[8]和论文[9]介绍了卷积神经网络相关的设计。全连接神经网络主要有两个问题。一个是参数特别多,但又是稀疏的;另一个是可诠释性的问题,隐藏层的突触含义不能直观地解释。卷积神经网络利用卷积核提取图像中的特征,可解释性强且参数少了很多。
在这里插入图片描述

  上图是一个典型的卷积神经网络的结构框图。包含卷积、降采样(池化)和全连接等操作。降采样能够有效防止过拟合。一般来说,n个卷积核能够得到n通道的特征图;卷积核的维度和将要参与运算的特征图的维度高一个维度。比如单张图像,卷积核就是二维的,但可以有多个,那就是三维;对于多通道的特征图,卷积核就是三维的,而且也可以有多个,那就是四维。
  一般越靠近输入,卷积核越少;越靠近输出,卷积核越多。因为卷积核少是为了提取图像中最基本的特征,而后面可以将这些基本特征进行组合得到复杂的特征。
  卷积神经网络的硬件实现,有两个个比较关键的问题是。一个是硬件适合处理的是向量矩阵乘法,一维向量乘以二维矩阵,而在CNN中,特征图和卷积核一般在三维及以上,很难用硬件处理。第二个问题是,卷积核是有正负的,如果单独控制每个突触上的电压施加方向将会非常麻烦。
  针对第一个问题,论文[8]中作者将卷积核和特征图都拉成一维,多个卷积核可以构成二维的矩阵。卷积核是固定的,而令输入滑动,实现向量矩阵运算。
在这里插入图片描述

  针对第二个问题,作者采用的方法是,将原本一个卷积核,分成两个卷积核,令正负计算结果分开。输入样本与正的卷积核卷积,输入样本取反后与负的卷积核卷积。这样做虽然花费了更大的面积,但是解决了卷积核包含正负的问题,而且可以多个卷积核并行计算。
在这里插入图片描述

  卷积核的电导值是需要提前写好的。采用写Write with Verify 的方式,将当前电导值转换成电压信号读出,并利用两个DAC、一个比较器和几个逻辑门判断当前的电导值是否在一定的误差容限范围内,从而确保电导值写到位。
在这里插入图片描述

  论文[9]提出了一种并行性更高的方案。因为论文[8]中的卷积是由输入特征图滑动输入得到的,所以需要一段时间。但其实也可以采用更大的面积来实现卷积核,用空间换时间,令卷积结果同时输出。
在这里插入图片描述

  文中对一个4×4的图采用3×3的卷积核进行卷积,结果是2×2的特征图。可以从卷积核的四列直接得到结果。

  将神经网络与强化学习结合,就有了深度Q值网络(Deep Q-Network, DQN)。原本的Q值表示离散的,有限的,遇到无限的state和action时,Q值表就不再适用,所以DQN就是完成了问题的泛化,对没有遇到过的state也能做出判断。这部分没有细看就不详细写了……

稀疏编码

协方差矩阵

在这里插入图片描述

  有m个n维的样本构成样本矩阵 X m × n X_{m\times n} Xm×n,注意样本是横放的,在上面的左图中,我为了突出同一列是同一种属性所以画了竖线。
  样本间同一种属性的均值为0。对于同一个属性,m个样本可以看作m个随机变量,用样本均值代替期望值来计算方差和协方差。当均值为0时,方差和协方差的计算可以转换为向量内积的计算。

v a r ( x ) = ∑ i = 1 m ( x i − x ˉ ) ( x i − x ˉ ) m − 1 = 1 m − 1 < x , x > {\mathop{\rm var} } \left( x \right) = { {\sum\nolimits_{i = 1}^m {\left( { {x_i} - \bar x} \right)\left( { {x_i} - \bar x} \right)} } \over {m - 1} } = {1 \over {m - 1} } < x,x > var(x)=m1i=1m(xixˉ)(xixˉ)=m11<x,x>

c o v ( x , y ) = ∑ i = 1 m ( x i − x ˉ ) ( y i − y ˉ ) m − 1 = 1 m − 1 < x , y > {\mathop{\rm cov} } \left( {x,y} \right) = { {\sum\nolimits_{i = 1}^m {\left( { {x_i} - \bar x} \right)\left( { {y_i} - \bar y} \right)} } \over {m - 1} } = {1 \over {m - 1} } < x,y > cov(x,y)=m1i=1m(xixˉ)(yiyˉ)=m11<x,y>

  因此 X T X X^TX XTX几乎就是协方差矩阵,只差除以 m − 1 m-1 m1,这个系数不影响我们定性分析数据。
   X T X X^TX XTX的对角线元素代表样本每个维度的方差,数值越大表明样本在这个维度上的区分度最高;非对角元素表明了样本不同维度之间的相关性,数值的绝对值越大则相关性越高,数值的正负表现了正负相关性。

PCA

  实对称矩阵一定可以相似对角化。

P − 1 ( X T X ) P = Λ {P^{ - 1} }\left( { {X^T}X} \right)P = \Lambda P1(XTX)P=Λ

  等式右边是由特征值组成的对角矩阵 Λ \Lambda Λ。可以理解为在某个空间坐标系下,这组样本的各个维度是不相关的(非对角元素为0),而对角元素中的最大值表明在这一维度上能够最明显地区分出这这组样本。

稀疏编码

  人脑里就像是有一个“词典”,当我们认识一样事物,就会从里面拿出一些词来描述Ta。这个词典非常非常大,而我们每次只需要少量的词。

x m × 1 = D m × n a n × 1 {x_{m \times 1} } = {D_{m \times n} }{a_{n \times 1} } xm×1=Dm×nan×1

   n ≫ m n\gg m nm a a a包含很多0,是稀疏的。我们的目标是找到一个最好的 a a a,它既能准确地描述 X X X,又能用最少的词来表示,所以就得到了下面这个目标函数:

arg ⁡ min ⁡ a ( ∥ x − D a ∥ 2 + λ ∥ a ∥ 0 ) \mathop {\arg \min }\limits_a \left( { { {\left\| {x - Da} \right\|}_2} + \lambda { {\left\| a \right\|}_0} } \right) aargmin(xDa2+λa0)

  可以把这个字典 D D D做成忆阻阵列,向量矩阵乘法是向量在各个矩阵的列向量方向上的投影,我们要找一个合适的 a a a实际上就是将 x x x按照字典中的向量进行分解。
在这里插入图片描述

  字典 D D D不一定是一个完备正交集,很可能字典里有两个词非常像,所以不能直接拿 x x x D D D相乘的结果的输出作为最终结果。在这里引入了LIF神经元,我们可以把那些激活的神经元作为系数编码的结果 a a a

LCA

  局域竞争算法(Locally Competitive Algorithm, LCA),是论文[10]中提出的一种方法,它利用协方差矩阵巧妙地抑制相似的词被激活。

d u d t = 1 τ ( − u + x T D − a ( D T D − I n ) ) { {du} \over {dt} } = {1 \over \tau }\left( { - u + {x^T}D - a\left( { {D^T}D - {I_n} } \right)} \right) dtdu=τ1(u+xTDa(DTDIn))

a i = { u i        i f    u i > λ 0        o t h e r w i s e {a_i} = \left\{ {\begin{matrix} { {u_i}\;\;\;{\rm{if} }\;{u_i} > \lambda }\\ {0\;\;\;{\rm{otherwise} } } \end{matrix} } \right. ai={uiifui>λ0otherwise

  先不看公式的后半部分,前面一半和LIF神经元的模型几乎一模一样。都是包含漏电项和积分项。
在这里插入图片描述

  公式的后半部分包含 D T D D^TD DTD,这里有个前提是 D D D的每个列向量都是已经归一化而且均值为0,因此 D T D D^TD DTD的对角线上均为1, D T D − I n D^TD-I_n DTDIn即使对角线上都是0的方阵,而非对角元素表示字典中不同的两个词之间的相关性。
   a a a x x x的稀疏表示,在刚开始的时候, a a a的每个分量都是0。随着LIF的积分,其中一旦有一个神经元激活,就是达到了公式中 u i > λ u_i>\lambda ui>λ这一条件。这个激活的神经元就会对其它和它相关的神经元产生抑制。而且抑制的程度由两方面决定。一方面是这个激活的神经元本身的电压,另一方面是不同的两个词之间的相关性。
  阈值 λ \lambda λ的选取非常重要, λ \lambda λ越小, a a a中的词越多,但因为 D D D不是正交完备的,所以可能会有矛盾的词被同时激活,所以这样的 a a a x x x的描述反而不会很准确; λ \lambda λ越大, a a a中的词越少,词太少也无法准确描述 x x x。所以只有选取合适的阈值 λ \lambda λ才行。
  上面的式子可以重写,把后半部分的括号展开,可以写成由 a a a根据 D D D重构的 x x x,记作 x ^ T \hat x^T x^T
a D T D = ( D a T ) T D = x ^ T D a{D^T}D = {\left( {D{a^T} } \right)^T}D = { {\hat x}^T}D aDTD=(DaT)TD=x^TD
  原来的式子就可以写成:
d u d t = 1 τ ( − u + ( x T − x ^ T ) D + a ) { {du} \over {dt} } = {1 \over \tau }\left( { - u + \left( { {x^T} - { {\hat x}^T} } \right)D + a} \right) dtdu=τ1(u+(xTx^T)D+a)
  这里可以将侧向抑制重新理解为,一个已经建立的稀疏描述 a a a会将输入中包含的这部分特征移除。

  • 9
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小裘HUST

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值