NLP学习笔记(ELMo)

在这里插入图片描述

IDEA

好的词表征模型应该同时兼顾两个问题:

  1. 一是词语用法在语义和语法上的复杂特点;
  2. 二是随着语言环境的改变,这些用法也应该随之改变。

每一个词语的表征都是整个输入语句的函数。具体做法就是先在大语料上以language model为目标训练出bi-LSTM模型,然后利用LSTM产生词语的表征。ELMo故而得名(Embeddings from Language Models)。

 在之前2013年的word2vec及2014年的GloVe的工作中,每个词对应一个vector,对于多义词无能为力。ELMo的工作对于此,提出了一个较好的解决方案。不同于以往的一个词对应一个向量,是固定的。在ELMo世界里,预训练好的模型不再只是向量对应关系,而是一个训练好的模型。使用时,将一句话或一段话输入模型,模型会根据上线文来推断每个词对应的词向量。这样做之后明显的好处之一就是对于多义词,可以结合前后语境对多义词进行理解。比如appele,可以根据前后文语境理解为公司或水果。

前向lstm语言模型基础

在这里插入图片描述

给定一串长度为N的词条( t 1 t_1 t1, t 2 t_2 t2,…, t N t_N tN),前向语言模型通过对给定历史( t 1 t_1 t1, t 2 t_2 t2,…, t N t_N tN)预测 t k t_k tk进行建模
在这里插入图片描述
以“the cat sat on the mat”这句话为例。在某一个时刻 k k k时,输入为the,输出cat的概率。过程是这里面包含了几步:

  1. 将the转换成word embedding。所谓 word embedding就是一个n1维的列向量,这个很好理解。在本篇paper中,作者用的是 cnn-big-lstm生成的 word embedding,其实跟word2vec等也差不多,就是提前单独训练好的模型,模型喂入单词就能得到单词的word embedding。总之,在这里一步里,就是简单将单词转换成了n1的列向量作为 x t x_t xt
  2. 将上一时刻的输出/隐状态 h h h k _k k − _− 1 _1 1及第一步中的word embedding一并送入LSTM,并得到输出及隐状态 h k h_k hk。其中,隐状态 h h h k _k k − _− 1 _1 1是一个m*1的列向量。
  3. 将LSTM的输出 h h h k _k k,与上下文
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值