【论文速读】Towards Better Modeling Hierarchical Structure for Self-Attention with Ordered Neurons

2019 EMNLP上的一篇文章。[paper]

一些研究表明,基于self-attention networks(SANs)和RNNs的混合建模要比单独使用二者建模表现更好[1],并且在很多自然语言处理任务中,对层次结构的建模十分重要。因此本文的 基本思想 就是使用Ordered Neurons LSTM(ON-LSTM)[2]对基于SANs和RNNs二者的混合模型进行改进,使其能够对层次结构进行建模。ON-LSTM通过引入syntax-oriented inductive bias,控制每个神经元的更新频率,使得LSTM能够具有树状结构。

关于ON-LSTM的更多描述可参见这篇文章,讲解十分清晰。

Model

方法就是在RNNs层上再叠加SANs层。网络结构如下:

网络结构
其中, E N C R N N s ( ⋅ ) \mathrm {ENC}_{\mathrm {RNN}s}(\cdot) ENCRNNs() K K K 层RNNs编码器, E N C S A N s ( ⋅ ) \mathrm {ENC}_{\mathrm {SAN}s}(\cdot) ENCSANs() L L L 层SANs编码器。RNNs层使用ON-LSTM来建模输入序列的层次结构。

Experiment

在语言建模、有针对性的语法评估及逻辑推理三个任务上进行了实验。

[1] Mia Xu Chen, Orhan Firat, Ankur Bapna, Melvin Johnson, Wolfgang Macherey, George Foster, Llion Jones, Mike Schuster, Noam Shazeer, Niki Parmar, Ashish Vaswani, Jakob Uszkoreit, Lukasz Kaiser, Zhifeng Chen, Yonghui Wu, and Macduff Hughes. 2018. The best of both worlds: Combining recent advances in neural machine translation. In ACL.

[2] Yikang Shen, Shawn Tan, Alessandro Sordoni, and Aaron Courville. 2019. Ordered neurons: Integrating tree structures into recurrent neural networks. In ICLR.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值