ELMo: Deep contextualized word representations

68 篇文章 2 订阅
60 篇文章 1 订阅
本文介绍了ELMo,一种基于预训练的双向语言模型的深度上下文词表示,它能显著提升六项NLP任务的SOTA。ELMo的词向量是根据biLM的所有内部层状态计算的,高层状态捕获语义信息,低层状态捕获句法信息。在下游任务中,通过学习特定任务的权重组合这些层,提高了模型性能。
摘要由CSDN通过智能技术生成

Abstract

本文介绍一种新型的上下文词表示可以建模:

  • 词的复杂用法特征(例如句法或者语义特征)
  • 在不同的语言上下文中的用法变化(例如多义词)

我们的词向量是学到的深度双向语言模型(biLM)内部状态的函数,这个 biLM 是在大量文本语料上预训练的结果。我们展示了这些表示可以很容易地加入已有的模型并在六项 NLP 任务上显著提升了 SOTA.

Introduction

预训练的词向量(Word2Vec, GloVe 等)是很多神经语言理解模型中的关键。
我们在大量文本语料上使用语言模型 (LM)目标预训练一个双向 LSTM, 然后从中得到词向量。我们将这种词向量命名为 ELMo (Embeddings from Language Models). 与之前学习上下文词向量的方法不同,ELMo 是深度词向量,因为 ELMo 词向量是 biLM 所有内部层状态的函数。具体来说,我们对每个下游任务训练一个线性组合函数,这种方式明显地提升了模型的表现,即便是在只使用 LSTM 最后一层状态的情况下。

我们发现高层的 LSTM 状态能够捕获一些上下文相关的词义(例如可以直接用于词义消歧任务),而较低层的状态则能捕获一些句法上的信息(例如可以用来做 POS 标注)。同时使用这些层的状态大有好处,允许模型选择对每个任务最有用的半监督信号。

模型和代码:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值