首先,根据我个人对忆阻器的理解与认识,我认为应当参考如下几点:
(1)基础性:根据忆阻器之父蔡少棠教授的理论[1],忆阻器(全称记忆电阻器,Memristor)是人类发现的第四种基本电子元件,它由磁通量(或电压在时间上的积分)与电荷量共同决定,数值上等于磁通量对电荷量的一阶微分,忆阻器会记忆流经它的所有电荷的信息。因此忆阻器非常具有研究价值,并且拥有不可估量的潜在研究价值;
(2)集成性:二端器件可通过crossbar方法实现超大规模集成的可编程性阵列;
(3)功耗低:忆阻器通过绝缘体内生长导电材料实现多阻态变换,因此通常电导处于微西门子
1
0
−
6
S
10^{-6}S
10−6S级别,而晶体管通常是西门子级别。根据焦耳定律
P
=
V
2
G
P=V^2G
P=V2G可知,忆阻器的功耗极低。根据一项研究[2]发现,忆阻器的功耗在同性能条件下目前是最低的电子器件,如表1所示;
表1 忆阻器的低功耗特性
(4)存算一体:忆阻器在电压激励下能够自动改变自身阻态(存),且同时输出该输入电压产生的响应(算)[1],这种特性使得忆阻器计算机能够突破传统计算机的冯·诺依曼瓶颈,即存储单元与控制单元是分离的,计算与存储两个过程在这两个单元中频繁切换进行。随着算力需求与大模型的横空出世,这种频繁切换的频率需求将会与时俱增,这会带来超大的计算机功耗负担。目前只有忆阻器能完美地解决这个问题。这一点是我认为未来是二端器件的天下的主要原因;
(5)突触可塑性:在双极性周期性电脉冲(或光脉冲)的激励下,忆阻器能够产生稳定且非易失的阻态分布,这与生物神经突触的LTP与LTD的表现完全一致。另外,阈值型忆阻器在受到连续脉冲的激励下会发放spike并改变自身的阻态,这与动物大脑内的脉冲激励原则完全一致,且通过理论与实验证明,忆阻器可在双极性周期性脉冲下实现STDP,且能够通过Hebbian学习法则更新突触。在忆阻器应用之前,有人做过突触晶体管,但是由于晶体管的三端特征,导致晶体管会大概率存在串扰且电路面积较大的问题,因此用忆阻器来制作电子突触是更好的选择;
(6)神经元可塑性:一个诺贝尔生理学奖颁发给了一项巨型鱿鱼的大脑解剖实验[3],这项实验为神经元的电学模型奠定了基础。在这项研究的结论中,研究人员发现神经元存在纳、钾、阴离子通道,通过控制通道蛋白质的开闭程度来控制离子的进出。当受到刺激时,神经元会存储并累积离子,形成动作电位。当动作电位达到一定阈值时,神经元会向前发放一个电脉冲(信号)并释放掉存储的离子,恢复到静息电位。神经元之间的信息传递就是靠这种原理实现的,这种电学模型被称为泄露-积分-点火(Leaky-Integral-firing, LIF)模型,在忆阻器问世前,人们利用并联电容与变阻器的方式设计了LIF神经元的电路模型——Hodgkin Huxley模型[3],如图1所示。后来随着光刻机的进步,二维纳米材料的制备成为了现实。根据惠普忆阻器模型,忆阻器在纳米级别的尺寸下才能有较好的多阻态特性。因此忆阻器可作为纳米级别的变阻器,这使得基于忆阻器的LIF神经元集成到电子芯片在理论上具备了可行性,且同时满足(2)的优势;
图1 Hodgkin Huxley模型
(7)忆阻器神经网络(MNN):根据欧姆定律
I
=
G
⋅
V
I=G\cdot V
I=G⋅V,而人工神经网络(ANN)中的输出神经元状态满足
y
=
W
⋅
x
y=W\cdot x
y=W⋅x。因此两者在线性空间上存在一致性,可用电导值G来等效ANN中的权重
W
W
W。在神经网络中,输出值是所有输入与权重的线性组合,即对所有
x
i
x_i
xi与
W
i
j
W_{ij}
Wij计算得到
y
=
W
⋅
x
y=W\cdot x
y=W⋅x的累加值(此处为了方便理解不引入偏置项b),若将各个忆阻器并联,则对于输入信号
(
V
1
,
V
2
,
…
,
V
n
)
(V_1,V_2,…,V_n)
(V1,V2,…,Vn),输出电流
I
=
G
1
V
1
+
G
2
V
2
+
⋯
+
G
n
V
n
I=G_1V_1+G_2V_2+\dots+G_nV_n
I=G1V1+G2V2+⋯+GnVn,因此忆阻器可搭建硬件神经网络具备了可行性,如图2。
图2 忆阻器神经网络的crossbar阵列设计[4]
但是这只代表了神经网络的前向传播(FF)过程,而负责训练神经网络的反向传播(BP)过程是非线性微分运算的过程(常见方法为损失函数梯度下降算法)来更新权重,这在忆阻神经网络中反映为更新电导(阻态)。因此人们在不断探索硬件上实现电导更新的方法(本人的研究方向),并在这条充满挑战的道路上不断前行。相信忆阻器能为人们在未来的生活产生深远的影响。以上是我认为忆阻(二端)器件能够成为未来主流的几点理由。
参考文献
[1] Strukov, Dmitri B., et al. “The missing memristor found.” nature 453.7191 (2008): 80-83.
[2] Yang, J. Joshua, Dmitri B. Strukov, and Duncan R. Stewart. “Memristive devices for computing.” Nature nanotechnology 8.1 (2013): 13-24.
[3] Nelson, Mark, and John Rinzel. “The hodgkin-huxley model.” The book of genesis (1995): 29-49.
[4] Zhang, Wei, et al. “Hardware‐Friendly Stochastic and Adaptive Learning in Memristor Convolutional Neural Networks.” Advanced Intelligent Systems 3.9 (2021): 2100041.
如果您觉得以上内容有参考意义或帮助,劳烦您给出好评/点赞!