自然语言处理:XLNet 模型

论文

XLNet: Generalized Autoregressive Pretraining for Language Understanding

开源代码

xlnet

 

模型介绍

语言模型划分为

  • 自回归语言模型(Autoregressive LM),根据上文预测下文,或反过来(例如GPT)
  • 自编码语言模型(Autoencoder LM),同时利用上下文,例如bert

bert 模型缺点

  • 要引入mask,使得预训练和和fine-tuning阶段不一致(tuning阶段没有mask)
  • 若多个单词被mask掉,则无法学习到这部分单词的相互关系

XLNet 模型的改进:

  • 相比bert在输入引入mask,XLNet引入双流注意力机制和attention mask,是模型内部的mask(掩码矩阵),这样在输入看起来还是从前往后的预测,即自回归。

 

如何利用上下文

XLNet 属于自回归语言模型 ,如果想同时利用上下文,XLNet做法是将词语随机排列(permutation),然后选取其中一些排列作为样本,例如一句话:[x1, x2, x3, x4],所有可能的排列方式有:

[('x1', 'x2', 'x3', 'x4'),
 ('x1', 'x2', 'x4', 'x3'),
 ('x1', 'x3', 'x2', 'x4'),
 ('x1', 'x3', 'x4', 'x2'),
 ('x1', 'x4', 'x2', 'x3'),
 ('x1', 'x4', 'x3', 'x2'),
 ('x2', 'x1', 'x3', 'x4'),
 ('x2', 'x1', 'x4', 'x3'),
 ('x2', 'x3', 'x1', 'x4'),
 ('x2', 'x3', 'x4', 'x1'),
 ('x2', 'x4', 'x1', 'x3'),
 ('x2', 'x4', 'x3', 'x1'),
 ('x3', 'x1', 'x2', 'x4'),
 ('x3', 'x1', 'x4', 'x2'),
 ('x3', 'x2', 'x1', 'x4'),
 ('x3', 'x2', 'x4', 'x1'),
 ('x3', 'x4', 'x1', 'x2'),
 ('x3', 'x4', 'x2', 'x1'),
 ('x4', 'x1', 'x2', 'x3'),
 ('x4', 'x1', 'x3', 'x2'),
 ('x4', 'x2', 'x1', 'x3'),
 ('x4', 'x2', 'x3', 'x1'),
 ('x4', 'x3', 'x1', 'x2'),
 ('x4', 'x3', 'x2', 'x1')]

随机选择几条排列:

('x1', 'x2', 'x4', 'x3'),
('x1', 'x4', 'x3', 'x2'),
('x2', 'x3', 'x4', 'x1'),
('x4', 'x2', 'x3', 'x1'),
('x3', 'x2', 'x4', 'x1'),

对于单词t3而言,t1,t2,t4 都可能在它前面出现,这样就同时利用了上下文。

 

双流注意力机制(Two-Stream Self-Attention)

根据上下文预测某个位置的单词,bert用的是mask,使得预训练和和fine-tuning阶段不一致。XLNet 利用了双流注意力,其中一个是内容流注意力机制(content stream attention),另一个是查询流注意力机制(query stream attention)。前者用于学习每个单词的表示,后者用于预测某个单词的出现,例如对于t3的预测,前者应该包含t3,后者则应该包含t3之前的单词还有t3的位置。正是查询流注意力机制 + Attention mask 取代了bert的mask。

 

如图所示,左下方学习的是t1的查询表示,因此用到的是t1之前的单词还有t1的位置。左上方学习的是t1的内容表示,所以用到t1自身还有之前的词,这也就是双流注意力机制。双流是因为每个词在训练任务中有两个角色,一个是被预测,一个是用于预测其他词。所以这个学习学的是两个表示,g:只包含位置信息,h:包含了内容信息;

右边是整个网络的结构,其中涉及两个掩码矩阵,上面的content 掩码矩阵包含了对角元素,即词语自身,用于单词内容表示(content representation)的学习;另一个query 掩码矩阵不包含对角元素,用于查询表示(query representation)的学习。经过两层结构,根据最终内容表示的输入作为单词的预测。

 

 

相关阅读

XLNet:运行机制及和Bert的异同比较 具体说明了XLNet 相对bert 改进的地方,还有其他优化的点,也有一些思考,推荐阅读

需要翻墙看的两篇文章,解释的也浅显易懂
What is XLNet and why it outperforms BERT
What is Two-Stream Self-Attention in XLNet

XLNet原理 李理的博客 应该算比较详细了

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值