重温被Mamba带火的SSM:线性系统和HiPPO矩阵

ae8ec59c44dd892c02aa90aa34fede79.gif

©PaperWeekly 原创 · 作者 | 苏剑林

单位 | 科学空间

研究方向 | NLP、神经网络

前几天,笔者看了几篇介绍 SSM(State Space Model)的文章,才发现原来自己从未认真了解过 SSM,于是打算认真去学习一下 SSM 的相关内容,顺便开了这个新坑,记录一下学习所得。

SSM 的概念由来已久,但这里我们特指深度学习中的 SSM,一般认为其开篇之作是 2021 年的 S4,不算太老,而 SSM 最新最火的变体大概是去年的 Mamba [1]。

当然,当我们谈到 SSM 时,也可能泛指一切线性 RNN 模型,这样 RWKV [2]、RetNet [3] 还有此前我们在《Google新作试图“复活”RNN:RNN能否再次辉煌?》介绍过的 LRU 都可以归入此类。不少 SSM 变体致力于成为 Transformer 的竞争者,尽管笔者并不认为有完全替代的可能性,但 SSM 本身优雅的数学性质也值得学习一番。

尽管我们说 SSM 起源于 S4,但在 S4 之前,SSM 有一篇非常强大的奠基之作《HiPPO: Recurrent Memory with Optimal Polynomial Projections》[4](简称 HiPPO),所以本文从 HiPPO 开始说起。

1ffa6ee8696103e65291b07c497a7bfd.png

基本形式

先插句题外话,上面提到的 SSM 代表作 HiPPO、S4、Mamba 的一作都是 Albert Gu [5],他还有很多篇 SSM 相关的作品,毫不夸张地说,这些工作筑起了 SSM 大厦的基础。不论 SSM 前景如何,这种坚持不懈地钻研同一个课题的精神都值得我们由衷地敬佩。

言归正传。对于事先已经对 SSM 有所了解的读者,想必知道 SSM 建模所用的是线性 ODE 系统:

402b888bfe32b1cf8e9e3630aa4c700c.png

其中:

7e894c1be52f8df24064cb2788eb834a.png

当然我们也可以将它离散化,那么就变成一个线性 RNN 模型,这部分我们在后面的文章再展开。不管离散化与否,其关键词都是“线性”,那么马上就有一个很自然的问题:为什么是线性系统?线性系统够了吗?

我们可以从两个角度回答这个问题:线性系统既足够简单,也足够复杂。简单是指从理论上来说,线性化往往是复杂系统的一个最基本近似,所以线性系统通常都是无法绕开的一个基本点;复杂是指即便如此简单的系统,也可以拟合异常复杂的函数,为了理解这一点,我们只需要考虑一个 的简单例子:

d53c667cceb57d169cda6816fa4edf0d.png

这个例子的基本解是 。这意味着什么呢?意味着只要 足够大,该线性系统就可以通过指数函数和三角函数的组合来拟合足够复杂的函数,而我们知道拟合能力很强的傅里叶级数也只不过是三角函数的组合,如果在加上指数函数显然就更强了,因此可以想象线性系统也有足够复杂的拟合能力。

当然,这些解释某种意义上都是“马后炮”。HiPPO 给出的结果更加本质:当我们试图用正交基去逼近一个动态更新的函数时,其结果就是如上的线性系统。这意味着,HiPPO 不仅告诉我们线性系统可以逼近足够复杂的函数,还告诉我们怎么去逼近,甚至近似程度如何。

6beb5ee55708ab35c9a75209a8873e3a.png

有限压缩

接下来,我们都只考虑 的特殊情形, 只不过是 时的平行推广。此时, 的输出是一个标量,进一步地,作为开头我们先假设 ,HiPPO 的目标是:用一个有限维的向量来储存这一段 的信息。

看上去这是一个不大可能的需求,因为 意味着 可能相当于无限个点组成的向量,压缩到一个有限维的向量可能严重失真。不过,如果我们对 做一些假设,并且允许一些损失,那么这个压缩是有可能做到的,并且大多数读者都已经尝试过。比如,当 在某点 阶可导的,它对应的 阶泰勒展开式往往是 的良好近似,于是我们可以只储存展开式的 个系数来作为 的近似表征,这就成功将 压缩为一个 维向量。

当然,对于实际遇到的数据来说,“阶可导”这种条件可谓极其苛刻,我们通常更愿意使用在平方可积条件下的正交函数基展开,比如傅里叶(Fourier)级数,它的系数计算公式为

a9432b3468e5e4d58e2cf08eda4523d6.png

这时候取一个足够大的整数 ,只保留 的系数,那么就将 压缩为一个 维的向量了。

接下来,问题难度就要升级了。刚才我们说 ,这是一个静态的区间,而实际中 代表的是持续采集的信号,所以它是不断有新数据进入的,比如现在我们近似了 区间的数据,马上就有 的数据进来,你需要更新逼近结果来试图记忆整个 区间,接下来是 、 等等,这我们称为“在线函数逼近”。而上面的傅里叶系数公式(3),只适用于区间 ,因此需要将它进行推广。

为此,我们设 , 是 到 的一个映射,那么 作为 的函数时,它的定义区间就是 ,于是就可以复用式(3):

222ea208a168b68c33b03e96d6788729.png

这里我们已经给系数加了标记 ,以表明此时的系数会随着 的变化而变化。

fb2baf71c176f28c47a44edd1771d1d5.png

线性初现

能将 映射到 的函数有无穷多,而最终结果也因 而异,一些比较直观且相对简单的选择如下:

1、,即将 均匀地映射到 ;

2、注意 并不必须是满射,所以像 也是允许的,这意味着只保留了最邻近窗口 的信息,丢掉了更早的部分,更一般地有 ,其中 是一个常数,这意味着 前的信息被丢掉了;

3、也可以选择非均匀映射,比如 ,它同样是 到 的满射,但 时就映射到 了,这意味着我们虽然关注全局的历史,但同时更侧重于T时刻附近的信息。

现在我们以 为例,代入式(4)得到

41877f6159e5a3c3896e5092628e5c6a.png

现在我们两边求关于 的导数:

cc5392273df6c5d3dda532d823ce5e33.png

其中第二个等号我们用了分部积分公式。由于我们只保留了 的系数,所以根据傅立叶级数的公式,可以认为如下是 的一个良好近似:

12abc9922b7aa8c58bec03efce7dd994.png

那么:

bf743ebac89745ce32433b269badd91b.png

代入式(6)得:

15a7876a653cd7b99a846116832f839e.png

将 换成 ,然后所有的 堆在一起记为 ,并且不区分 和 ,那么就可以写出

de141fea3b37267056d2dfb18edc3213.png

这就出现了如式(1)所示的线性 ODE 系统。即当我们试图用傅里叶级数去记忆一个实时函数的最邻近窗口内的状态时,结果自然而言地导致了一个线性 ODE 系统。

7e7836e0da43a4c3fa268fb8a5d41d33.png

一般框架

当然,目前只是选择了一个特殊的 ,换一个 就不一定有这么简单的结果了。此外,傅里叶级数的结论是在复数范围内的,进一步实数化也可以,但形式会变得复杂起来。所以,我们要将上一节的过程推广成一个一般化的框架,从而得到更一般、更简单的纯实数结论。

设 ,并且有目标函数 和函数基 ,我们希望有后者的线性组合来逼近前者,目标是最小化 距离:

76865cae2ffece928d1ffa833f490978.png

这里我们主要在实数范围内考虑,所以方括号直接平方就行,不用取模。更一般化的目标函数还可以再加个权重函数 ,但我们这里就不考虑了,毕竟 HiPPO 的主要结论其实也没考虑这个权重函数。

对目标函数展开,得到

fe2b30c18c36aa2e09f85b66b74250d5.png

这里我们只考虑标准正交函数基,其定义为 , 是克罗内克 δ 函数 [6],此时上式可以简化成

25229d73b4594d5a5aed71500dfcee49.png

这只是一个关于 的二次函数,它的最小值是有解析解的:

a676be1cdc17954f0c5a45a91ed07136.png

这也被称为 与 的内积,它是有限维向量空间的内积到函数空间的平行推广。简单起见,在不至于混淆的情况下,我们默认 就是 。

接下来的处理跟上一节是一样的,我们要对一般的 考虑 的近似,那么找一个 到 的映射 ,然后计算系数

bf02e37999aedb0a6c9781c3272e31ea.png

同样是两边求 T 的导数,然后用分部积分法

6e0d9b2c4c528fa3d83d205ea274a66a.png

c20870d6c6c972163881ede62e651952.png

请勒让德

接下来的计算,就依赖于 和 的具体形式了。HiPPO 的全称是 High-order Polynomial Projection Operators,第一个 P 正是多项式(Polynomial)的首字母,所以 HiPPO 的关键是选取多项式为基。现在我们请出继傅里叶之后又一位大牛——勒让德(Legendre),接下来我们要选取的函数基正是以他命名的“勒让德多项式” [7]。

勒让德多项式 是关于 的 次函数,定义域为 [-1,1],满足

60f98bfacad82a1c05db0bc09d8ce57c.png

所以 之间只是正交,还不是标准(平分积分为 1), 才是标准正交基。

当我们对函数基 执行施密特正交化 [8] 时,其结果正是勒让德多项式。相比傅里叶基,勒让德多项式的好处是它是纯粹定义在实数空间中的,并且多项式的形式能够有助于简化部分 的推导过程,这一点我们后面就可以看到。勒让德多项式有很多不同的定义和性质,这里我们不一一展开,有兴趣的读者自行看链接中维基百科介绍即可。

接下来我们用到两个递归公式来推导一个恒等式,这两个递归公式是

2514c2f0dea73e6c51bf65f07dfc36cf.png

由第一个公式(17)迭代得到:

a129684947edc30c79ba040dde758983.png

其中当 是偶数时 否则 。代入第二个公式(17)得到

d391d66f4da987362f32256e4e8f1ff1.png

继而有

8a9c7df7232b9c4f15080ca424b34360.png

这些就是等会要用到的恒等式。此外,勒让德多项式满足 ,这个边界值后面也会用到。

正如 维空间中不止有一组正交基也一样,正交多项式也不止有勒让德多项式一种,比如还有切比雪夫(Chebyshev)多项式 [9],如果算上加权的目标函数(即 ),还有拉盖尔多项式 [10] 等,这些在原论文中都有提及,但 HiPPO 的主要结论还是基于勒让德多项式展开的,所以剩余部分这里也不展开讨论了。

ac7c1ac444730f76a69db017e0a1f6ec.png

邻近窗口

完成准备工作后,我们就可以代入具体的 进行计算了,计算过程跟傅里叶级数的例子大同小异,只不过基函数换成了勒让德多项式构造的标准正交基 。作为第一个例子,我们同样先考虑只保留最邻近窗口的信息,此时 将 映射到 ,原论文将这种情形称为“LegT(Translated Legendre)”

直接代入式(15),马上得到

8cea6ee114312532ca23d7ee2257dae3.png

我们首先处理 项,跟傅里叶级数那里同样的思路,我们截断 作为 的一个近似:

0e8e782267538cb83877ef7b17029e5d.png

从而有 。接着,利用式(19)得到

c0d53b14dee6025695fed6e25ceab350.png

将这些结果整合起来,就有

228ec9f31041bec1c15d7b52c5112c65.png

再次地,将 换回 ,并将所有的 堆在一起记为 ,那么根据上式可以写出

e308ceae87b74a71e49f1a73040f81f4.png

我们还可以给每个 都引入一个缩放因子,来使得上述结果更一般化。比如我们设 ,代入式(25)整理得

ad9745c8d27623239af8caa28df3e06b.png

如果取 ,那么 不变,,这就对齐了原论文的结果,如果取 ,那么就得到了 Legendre Memory Units [11] 中的结果

dde7d9b04b96ca3e4f9f880d5ef54dd5.png

这些形式在理论上都是等价的,但可能存在不同的数值稳定性。比如一般来说当 的性态不是特别糟糕时,我们可以预期 越大, 的值就相对越小,这样直接用 的话 向量的每个分量的尺度就不大对等,这样的系统在实际计算时容易出现数值稳定问题,而取 改用 的话意味着数值小的分量会被适当放大,可能有助于缓解多尺度问题从而使得数值计算更稳定。

813396c52b6b781e8b333cff2005f128.png

整个区间

现在我们继续计算另一个例子:,它将 均匀映射到 ,这意味着我们没有舍弃任何历史信息,并且平等地对待所有历史,原论文将这种情形称为 “LegS(Scaled Legendre)”

同样地,通过代入式(15)得到

1d7a99f0961bac91823b37fbcee5c9c9.png

利用公式(21)得到

849ff8741f2a10821bc1df96bc8a7e48.png

于是有

a51a5c8d0a81be37f1a85572d944eb3b.png

将 换回 ,将所有的 堆在一起记为 ,那么根据上式可以写出

da7c1b6176b32f3ba7bf92ca1c6feb4e.png

引入缩放因子来一般化结果也是可行的:设 ,代入式(25)整理得

c4e67b2db2a362a870d45ad86821b2d2.png

取 就可以让 不变, 变为 ,就对齐了原论文的结果。如果取 ,就可以像上一节 LegT 的结果一样去掉根号

ea88a4c8beaf9cac7903274512a3e26d.png

但原论文没有考虑这种情况,原因不详。

707be005f5aeb34b6b136316f99a59d3.png

延伸思考

回顾 Leg-S 的整个推导,我们可以发现其中关键一步是将 拆成 的线性组合,对于正交多项式来说, 是一个 次多项式,所以这种拆分必然可以精确成立,但如果是傅立叶级数的情况, 是指数函数,此时类似的拆分做不到了,至少不能精确地做到,所以可以说选取正交多项式为基的根本目的是简化后面推导。

特别要指出的是,HiPPO 是一个自下而上的框架,它并没有一开始就假设系统必须是线性的,而是从正交基逼近的角度反过来推出其系数的动力学满足一个线性 ODE 系统,这样一来我们就可以确信,只要认可所做的假设,那么线性 ODE 系统的能力就是足够的,而不用去担心线性系统的能力限制了你的发挥。

当然,HiPPO 对于每一个解所做的假设及其物理含义也很清晰,所以对于重用了 HiPPO 矩阵的 SSM,它怎么储存历史、能储存多少历史,从背后的 HiPPO 假设就一清二楚。

比如 LegT 就是只保留 大小的最邻近窗口信息,如果你用了 LegT 的 HiPPO 矩阵,那么就类似于一个 Sliding Window Attention;而 LegS 理论上可以捕捉全部历史,但这有个分辨率问题,因为 的维度代表了拟合的阶数,它是一个固定值,用同阶的函数基去拟合另一个函数,肯定是区间越小越准确,区间越大误差也越大,这就好比为了一次性看完一幅大图,那么我们必须站得更远,从而看到的细节越少。

诸如 RWKV、LRU 等模型,并没有重用 HiPPO 矩阵,而是改为可训练的矩阵,原则上具有更多的可能性来突破瓶颈,但从前面的分析大致上可以感知到,不同矩阵的线性 ODE 只是函数基不同,但本质上可能都只是有限阶函数基逼近的系数动力学。既然如此,分辨率与记忆长度就依然不可兼得,想要记忆更长的输入并且保持效果不变,那就只能增加整个模型的体量(即相当于增加 hidden_size),这大概是所有线性系统的特性。

7f9360a645484dad59abee2dbe1c595c.png

文章小结

本文以尽可能简单的方式重复了《HiPPO: Recurrent Memory with Optimal Polynomial Projections》[4](简称 HiPPO)的主要推导。HiPPO 通过适当的记忆假设,自下而上地导出了线性 ODE 系统,并且针对勒让德多项式的情形求出了相应的解析解(HiPPO 矩阵),其结果被后来诸多 SSM(State Space Model)使用,可谓是 SSM 的重要奠基之作。

outside_default.png

参考文献

outside_default.png

[1] https://papers.cool/arxiv/2312.00752

[2] https://papers.cool/arxiv/2305.13048

[3] https://papers.cool/arxiv/2307.08621

[4] https://papers.cool/arxiv/2008.07669

[5] https://dblp.org/pid/130/0612.html

[6] https://en.wikipedia.org/wiki/Kronecker_delta

[7] https://en.wikipedia.org/wiki/Legendre_polynomials

[8] https://en.wikipedia.org/wiki/Gram–Schmidt_process

[9] https://en.wikipedia.org/wiki/Chebyshev_polynomials

[10] https://en.wikipedia.org/wiki/Laguerre_polynomials

[11] https://proceedings.neurips.cc/paper/2019/file/952285b9b7e7a1be5aa7849f32ffff05-Paper.pdf

总奖金池60万!

2024全球人工智能技术创新大赛

1fb23fb47357b4e2546e6f87b35400d0.png

 点击海报,即刻报名 ▲ 

更多阅读

9182c54c8ca6bbba12824aa02d55737c.png

7b780f55fdd3be7916386b56db614b47.png

a3dea2dd819217eba3c91b951e80f913.png

116ba4b448b1f6d01d8e474fd1f6cdd3.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

56ce7f5c9a4c43f428a5a3c448b8d1cb.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

c58be9649fcf5250e8edfefbe5a5bb74.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值