谷歌新模型突破BERT局限:NLP版「芝麻街」新成员Big Bird长这样

萧箫 发自 凹非寺
量子位 报道 | 公众号 QbitAI

最新消息,谷歌推出了NLP系列「芝麻街」的新成员Big Bird

这个在外界眼中看起来有点可爱的动漫小鸟,摇身一变,解决了BERT模型中的全注意力机制带来的序列长度二次依赖限制,可以兼顾更长的上下文。

「芝麻街」中的Big Bird

众所周知,谷歌开发的BERT,曾经被称为「地表最强」NLP模型。

而BERT,则与美国知名动画片「芝麻街」(Sesame Street)里的虚拟人物同名。

此前,谷歌的「芝麻街」系列已经有5个成员(论文链接见传送门),现在Big Bird的到来,意味着谷歌在NLP的研究上更进一步。

少了一位ELMo

来看看Big Bird实现了什么。

突破全注意力机制的局限

在NLP模块表现最好的几种深度学习模型,例如BERT,都是基于Transformer作为特征抽取器的模型,但这种模型有它的局限性,核心之一就是全注意力机制

这种机制会带来序列长度二次依赖限制,主要表现在存储方面。

为了解决这个问题,团队提出了一种名为Big Bird的稀疏注意力机制。

作为更长序列上的Transformers,Big Bird采用稀疏注意力机制,将二次依赖降至线性。

下面这张图片,展示了Big Bird所用的注意力机制模块构建。

其中,白色的部分代表着注意力的空缺。

图(a)表示r=2的随机注意力机制,图(b)表示w=3的局部注意力机制,图(c)表示g=2的全局注意力机制,图(d)则是前三者融合起来的Big Bird模型。

之所以提出这样的模型,是因为团队希望能在将二次依赖降至线性的同时,Big Bird的模型还能最大程度上接近并保持BERT模型的各项指标。

从下图来看,无论是单一采用随机注意力机制、局部注意力机制,还是二者结合的方式,都没有将三者进行结合的效果好。

也就是说,随机+局部+全局的注意力机制融合,最大程度上接近了BERT-base的各项指标。

不仅如此,这种稀疏注意力机制的一部分,还包括了采用O(1)的全局词例(global token),例如CLS。

这部分使得长程注意力开销从O(N√N)降至O(N)。

NLP问答和摘要任务中超越了SOTA

模型采用Books、CC-News、Stories和Wikipedia几种数据集对四类模型进行了训练,根据留出法评估,BigBird-ETC的损失达到了最低。

从结果来看,Big Bird在问答任务中展示出的精度非常不错。

下图是Big Bird与RoBERTa和Longformer对比所展现出来的精度效果,可以看见,在各项数据及上,BigBird的两个模型都展现出了更高的精度。

而在对模型进行微调后,可以看见,BigBird-ETC在HotpotQA的Sup、NaturalQ的LA、TriviaQA的Verified和WikiHop上均超越了SOTA。

与此同时,Big Bird在NLP的摘要任务中表现也比较亮眼。

摘要,顾名思义是从一段长文字中提炼出这段话的核心思想和意义。下面是从三个长文章数据集Arxiv、PubMed和BigPatent中测试的效果。

从图中来看,与其他非常先进的NLP模型相比,BigBird极大地提高了摘要任务的各项精度,性能表现非常优异。

不仅如此,Big Bird被证明是图灵完备的,这也就意味着,一切可以计算的问题,Big Bird都能计算,理论上,它能够用来解决任何算法。

此外,Big Bird在基因组数据处理方面也极具潜力。

但虽然如此,也有网友认为,这样的模型与Longformer在概念上并无本质区别,不能算是一个大突破。

你怎么看?

作者介绍

论文的两位共同一作是Manzil Zaheer和Guru Guruganesh,均来自谷歌。

Manzil Zaheer

Manzil Zaheer,CMU机器学习博士,3篇论文曾经发表于NIPs上,除此之外,在ACL和EMNLP等顶会上也发表过相应文章。

Guru Guruganesh

Guru Guruganesh,CMU机器学习博士,主要在近似算法、拉姆齐定理、半正定规划等方向有所研究。

传送门

「芝麻街」系列论文列表:
ELMo:https://arxiv.org/abs/1802.05365
BERT:https://arxiv.org/abs/1810.04805
ERNIE:https://arxiv.org/abs/1904.09223
Grover:https://arxiv.org/abs/1905.12616
KERMIT:https://arxiv.org/abs/1906.01604
Big Bird:https://arxiv.org/abs/2007.14062

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

每天5分钟,抓住行业发展机遇

如何关注、学习、用好人工智能? 

每个工作日,量子位AI内参精选全球科技和研究最新动态,汇总新技术、新产品和新应用,梳理当日最热行业趋势和政策,搜索有价值的论文、教程、研究等。

同时,AI内参群为大家提供了交流和分享的平台,更好地满足大家获取AI资讯、学习AI技术的需求。扫码即可订阅:

加入AI社群,与优秀的人交流

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

喜欢就点「在看」吧 !

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值