自然语言词向量模型:Glove和Bert

自然语言预训练模型:Glove和Bert

1. 词向量模型

词向量模型包括:word2vec、glove、fastText、elmo、GPT和bert、xlnet等。
这里面有些是“一揽子”表示的词向量模型,如word2vec、glove,是用一个固定的向量来表示一个具体的token(单词)。这样的好处是简单且易于使用,预训练完词向量之后可以直接通过查“词典”来使用,但是缺点也很明显,比如一词多义怎么办?一个token只有一个固定的向量。
另一些则是需要在句子中才能将词向量具体化,比如bert和xlnet。这样词向量就不是一个具体的词向量了,在不同的语境中一个单词可以有不同的意思。缺点是比较消耗资源,太贵。

2. Glove

Glove的用法和word2vec相似,可以直接从网站上下载Glove已经训练好的“词典”,也可以单独训练自己的语料库。glove官方的训练代码是c语言写的,用起来也不难,不需要懂很多c语言的知识,训练完成后再用其他语言进行调用就行,因为“查词典”的解决方案还是很easy的。
glove的理解分为两步(共现矩阵、尽量靠近共现矩阵的词向量表示公式):
在这里插入图片描述
在这里插入图片描述

bert模型

bert模型是 transformer 模型里的多个 encoder 堆叠而成 ,通过预测15%的MASK来达到无监督训练的目的。bert模型比较复杂,由于编者水平有限,难以在一篇博文中把想要表达的知识点全都讲完,因此提供了一个系统性理解 bert 模型的思路步骤,希望能帮到大家理解 bert,以及更新的 xlnet 模型:
1)seq2seq with attention
2)Transformer
3)bert

bert模型的使用

基本上90%以上的人都只使用fine-tuning,因为pre-trained实在是太消耗资源了。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参考资料

https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/
https://jalammar.github.io/illustrated-transformer/
https://jalammar.github.io/illustrated-bert/

  • 6
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值