Longformer论文解读和代码解析

前言

这篇博文记录了longformer论文的主要思想、代码实现和结果复现方面的一些工作,相关链接如下:
原longformer论文地址
github上原作者公开的代码
huggingface上原作者编辑的longformer模块

原论文解读

其时transformer-xl已经突破了transformer对处理文本长度的限制,那longformer的意义是什么呢?原作者的解释是这样的:

transformer-xl处理长文本时按从左到右的方式自回归处理,这样每一个segment只能看到其所在的segment和其之前的segment,而看不到其后方的内容。这对于需要双向信息的任务是不利的(比如QA),而longformer将整个长文本直接输入,避免了transformer-xl的问题。

longformer的核心技术

longformer本质上是一种sparse attention的方法,也就是每个token不是attend到整个输入文本,而仅attend一个窗口大小的范围。这个窗口在此token附近。 根据前人的工作[1],这种处理是合理的。并且将模型运行的时间复杂度从与文本长度的二次相关降到了一次相关。

需要注意的是,这里的一次相关不是如下形式: r e q u i r e d _ t i m e = k ∗ l e n ( c o n t e x t ) + b required\_time=k*len(context)+b required_time=klen(context)+b而是这样的: r e q u i r e d _ t i m e = k ∗ T ∗ ⌈ ( l e n ( c o n t e x t ) l e n ( s l i d i n g _ w i n d o w ) ) ⌉ + b required\_time=k*T*\lceil (\frac{len(context)}{len(sliding\_window)})\rceil+b required_time=kT(len(sliding_window)len(context))+blongformer将输入文本长度截断/填充到了滑动窗口长度的整数倍,对应了向下取整/向上取整(上面公式只列出一种情况)。上述公式中的参数 T T T l e n ( s l i d i n g _ w i n d o w ) len(sliding\_window) len(sliding_window)二次相关。在作者原代码中,为了和roberta做比较, l e n ( s l i d i n g _ w i n d o w ) = 512 len(sliding\_window)=512 len(sliding_window)=512

各种sliding window示意图

Attention Pattern
Sliding Window

原始Transformer中的self attention矩阵如上图(a)所示,任何两个位置间都是有关联的。而sliding window是“缩水版”attention,每一个向量只和有限个其他位置的向量间有attention关联。这“有限个其他位置”排列在此向量左右(左右各一半),如上图(b)所示。

还记得在transformer-xl中Zihang Dai提到的vanilla model吗?也就是将长文本划分为一个个较短的、交集为空而并集为全集的segment,然后依次处理各segment,不同segment间没有信息传递[2]。按笔者理解,sliding window的思想和这种原始的方法很相似,只不过vanilla model是静态分割segment,sliding window是动态生成segment;vanilla model各segment间没有交集,而sliding window各segment间有交集。

这里对论文中的一段话再额外解释一下:

In a transformer with l l l layers, the receptive field size at the top layer is l ∗ w l*w lw (assuming w w w is fixed for all layers)

如下图所示,假设下图所有的sliding window大小均为 w w w。第一层中,token a 2 a_2 a2的attention能覆盖的范围就是一个窗口大小 w w w;第二层中,token b 2 b_2 b2的attention在第二层能覆盖的范围也是 w w w,即 b 1 b_1 b1 b 3 b_3 b3。但这一层的token都是从下面一层,也就是第一层传上来的,所以 b 1 b_1 b1包含了 a 2 a_2 a2捕获到的上下文信息, b 3 b_3 b3包含了 a 4 a_4 a4捕获到的上下文信息,也就是说, b 2 b_2 b2能利用到从 a 1 a_1 a1 a 5 a_5 a5的全部信息,而 a 1 a_1 a1 a 5 a_5 a5的context长度为 2 ∗ w 2*w 2w。同理可知, c 2 c_2 c2能利用的context范围为 3 ∗ w 3*w 3w d 2 d_2 d2能利用的context范围为 4 ∗ w 4*w 4w,第 n n n层的token能利用的context范围为 m i n ( m a x _ s e q _ l e n , n ∗ w ) min(max\_seq\_len, n*w) min(max_seq_len,nw)。所以,longformer底层的layer仅能获取到局部信息,越上层的layer能获取到的信息越多。
在这里插入图片描述

Dilated Sliding Window

Dilated Sliding Window如前图c中所示,每一个token的sliding window不是紧密靠在token左右,而是在token左右两边分散开。比如说token a a a右边有m个需要attend到的对象 [ a 1 , a 2 . . . a m ] [a_1,a_2...a_m] [a1,a2...am] l e n ( s l i d i n g _ w i n d o w ) = 2 m len(sliding\_window)=2m len(sliding_window)=2m),那么 a 1 a_1 a1 a 2 a_2 a2间会空出 d d d个token,这 d d d个token和 a a a之间没有attention连接。同理于任意的 a n a_n an a n + 1 a_{n+1} an+1之间。

Global Attention

Global Attention如前图d中的水平、竖直标线所示。拥有global attention的token会通过global attention关联到输入的每一个token。而对称的,被关联到的token除了要attend到自己sliding window里的token,还要attend到所有使用了global attention的token。

Global Attention在下游任务中起到重要作用。比如QA中,为question的每个token都设置了global attention;在分类任务中,为[CLS]设置了global attention。

另外要注意的是,计算Global Attention的 k , q , v k, q, v k,q,v时使用和计算Sliding Window的 k , q , v k, q, v k,q,v不同的参数。

Pretrain-finetune

longformer引入了Pretrain-finetune机制。原作者在使用roberta参数初始化longformer模型参数的基础上,又通过mlm任务进行预训练,得到了longformer-base和longformer-large两个规模的预训练模型。预训练好的模型在原github项目和huggingface中都能找到(huggingface中使用YourAimedModel.from_pretrained("allenai/longformer-base-4096")即可加载base模型参数,large同理)

longformer代码解析

经过预训练的longformer在多个下游任务上取得了优秀的效果。这里不一一列举,请读者阅读原论文了解更多细节。我们这里只提一下复现论文效果时的一些注意事项。

https://github.com/allenai/longformer上的代码是基于pytorch-lightning和huggingface transformer实现的,笔者通过readme中的方法配环境没有成功,反倒是根据代码自己配的环境能让代码正常运行。

另外,https://github.com/allenai/longformer中scripts里的cheatsheet.txt写的是有问题的。如果读者按其命令运行,是得不到论文中提到的在triviaqa上的效果的。这个问题其实已经有大佬解决了,只是cheatsheet迟迟没有更新。此问题的解决办法见longformer论文中triviaqa上效果复现。由于有的人可能打不开链接或不清楚大佬是怎么做的,我将其截图如下并加以解释
在这里插入图片描述
首先,--save_prefix triviaqa-longformer-large并不能正确的加载预训练模型参数,导致测试结果极差。想要正确加载参数,我们需要用到--resume_ckpt path/to/triviaqa-longformer-large/checkpoints/ckpt_epoch_4_v2.ckpt。可是在github上下载的triviaqa-longformer-large/checkpoints/ckpt_epoch_4_v2.ckpt通过上述方法加载还会失败,所以我们要对checkpoint内容进行修改。这种修改在python terminal里进行即可。修改代码如下:

checkpoint = torch.load("path/to/triviaqa-longformer-large/checkpoints/ckpt_epoch_4_v2.ckpt")

checkpoint["state_dict"]["model.embeddings.position_ids"] = torch.arange(4098).to('cuda').unsqueeze(0)
checkpoint["checkpoint_callback_best_model_path"]=""  # some versions of pytorch lightning may not need this

torch.save(checkpoint, "path/to/triviaqa-longformer-large/checkpoints/fixed_ckpt_epoch_4_v2.ckpt")

修改完后,使用--resume_ckpt path/to/triviaqa-longformer-large/checkpoints/fixed_ckpt_epoch_4_v2.ckpt就可以啦。我测试的效果如下:
{‘exact_match’: 73.16401851620168, ‘f1’: 77.782891117113}

Huggingface Longformer

https://huggingface.co/transformers/model_doc/longformer.html

Huggingface中实现了Longformer,并且是作者本人实现的。但是,上文中提到的Dilated Sliding Window并没有被实现,而且Huggingface中还给出了提示DISCLAIMER: This model is still a work in progress, if you see something strange, file a Github Issue.但不论怎样,这里给出的实现比github中原项目更易用。需要注意的是,longformer相关模型的forward函数都需要一个参数global_attention_mask用于标定需要使用global attention的token。虽然这个参数是可选的,但笔者建议大家用的时候加上这个参数。

对于Huggingface中Longformer的实现和原Longformer实现的区别,github上有一个相关的issue,但还没有答复。大家可以关注一下https://github.com/allenai/longformer/issues/210

最后提一点,longformer的最长处理长度不是4096。但是为了在可接受时间内得到结果,论文的作者在预训练longformer模型时,将输入的长度都限制在了4096个token内,超过4096个token的部分会被直接截断。
另外,longformer的时间复杂度虽然和输入长度线性相关,但这绝对不代表longformer对计算资源的需求小。恰恰相反,longformer对计算资源的需求远大于roberta。如果想在longformer上pretrain或finetune,v100是不错的选择。

Reference

[1] Olga V. Kovaleva, Alexey Romanov, Anna Rogers, and Anna Rumshisky. 2019. Revealing the dark secrets of bert. In EMNLP/IJCNLP.
[2] Zihang Dai, Zhilin Yang, Yiming Yang, William W Cohen, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Longformer是一种基于Transformer架构的预训练语言模型,它在处理长文本时表现出色。然而,需要注意的是,Longformer的最长处理长度并不是4096个token,而是根据具体的模型设置而定。为了在可接受的时间内得到结果,论文作者在预训练Longformer模型时将输入长度限制在了4096个token内,超过这个长度的部分会被截断\[1\]。 另外,尽管Longformer的时间复杂度与输入长度成线性关系,但这并不意味着Longformer对计算资源的需求较小。相反,Longformer对计算资源的需求远大于RoBERTa。如果想在Longformer上进行预训练或微调,使用v100等高性能计算资源是一个不错的选择\[1\]。 关于Huggingface中Longformer的实现和原始Longformer实现之间的区别,目前还没有得到明确的回答。你可以关注相关的GitHub issue来获取最新的信息\[2\]。 此外,为了证明Longformer的优异性能并不仅仅是因为对RoBERTa进行额外训练所带来的,作者进行了一组消融实验。实验结果表明,即使在序列长度和注意力机制上与RoBERTa完全相同的情况下,Longformer的效果仍然比RoBERTa更好\[3\]。 #### 引用[.reference_title] - *1* *2* [Longformer论文解读代码解析](https://blog.csdn.net/weixin_42105164/article/details/120768081)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Longformer详解](https://blog.csdn.net/qq_37236745/article/details/109675752)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值