词向量技术Word2vec、Glove、ELMo、BERT的原理及发展趋势

本文介绍了词向量技术的发展历程,从2013年的Word2vec到2018年的Glove、ELMo再到BERT。Word2vec通过skip-gram模型学习词向量;Glove结合全局共现和局部窗口信息;ELMo利用BiLSTM获取上下文敏感的词向量;BERT则提出了遮蔽语言模型,通过上下文预测被遮蔽的词,预训练效果显著。
摘要由CSDN通过智能技术生成

词向量技术的演化方向:

Word2vec (2013)——> Glove(2014)(LSA全局共现词+word2vec优点)——> ELMo(2018) ——> BERT(2018)

发展趋势:词向量表到预训练词嵌入模型的

将文本信息中的词语转化为词向量的形式是NLP领域中最基本的上游任务。

1  Word2vec  2013   skip-gram模型的基本工作原理

    随机地选目标词Target和上下文词Context构成词对,构造一个有监督问题学习出一个词向量模型,最终得到词向量表。

模型的分类部分采用softmax=单个词/所有词的总和,而所有词汇量特别的巨大,普通的softmax方法不切实际。

引入分级softmax的思想,共有两种

1)哈夫曼树:构造一个树,高频词放在上层容易检索的位置(哈夫曼树),减少检索次数。

2)负采样:减少softmax公式分母的计算量,不是计算所有词而是采样部分词。

具体操作:在构成Target和Context的基础上,在加一个标签表示词对是不是上下文关系,这样采集k个不是上下文关系的负样本和一个是上下文关系的正样本,每次只迭代这k+1个词,不用迭代所有词了。这就相当于将一个10000分类转换为10000个二分类问题。

 

2  Glove   2014

融合了当时两种词向量方法:LSA全局词共现矩阵分解和word2vec上下文局部窗口,提出了一种很好的捕捉全局信息的方法,取

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值