NLP12:预训练模型之ELMO

公众号:数据挖掘与机器学习笔记

1.简介

ELMO是一种深层的上下文单词表示模型,它可以同时建模:

(1) 单词使用的复杂特征(例如语法和语义),也就是能够学习到词汇用法的复杂性

(2)这些用法如何在语言上下文之间变化(即建模多义性)

词向量是深度双向语言模型(deep bidirectional language model,BILM)内部状态的可学习函数,这些双向语言模型在大型文本语料库上进行了预训练。可以将这些预训练的词向量添加到现有模型中,能够显著改善NLP问题(问答、文本蕴含、情感分析等)的解决效果。

2.ELMO的显著特征

  • 依赖于上下文(Contextual):每个单词的表示形式最终取决于使用该单词的整个上下文。
  • 深(deep):单词的向量表示结合了深度预训练神经网络的所有层。
  • 基于字符(Character based):ELMO模型的训练完全基于字符,因此网络可以使用形态学线索来为训练中未曾见过的词汇标记成可靠的表示。

3.双向语言模型

前向语言模型就是,已知 ( t 1 , t 2 , … , t k − 1 ) (t_1,t_2,\ldots,t_{k-1}) (t1,t2,,t

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值