Glove词向量核心内容介绍--NLP

GloVe是一种基于全局词频统计的词表征工具,常用于计算文本相似性。它通过构建共现矩阵,然后利用平方损失函数训练词向量。训练过程包括构建矩阵、建立向量关系和优化目标函数。GloVe使用AdaGrad优化,对于不同大小的vector,迭代次数不同,最终得到的词向量是两个矩阵的和。
摘要由CSDN通过智能技术生成

Glove

尽管现在基于transformer的巨型模型也可以得到词向量。但是在一些基础的计算文本相似的任务中传统的静态词向量依然是非常好用的。Glove就是其中的一个代表。

2014年, Empirical Methods in Natural Language Processing (EMNLP)的论文:GloVe: Global Vectors for Word Representation 介绍了这种词向量。

正如论文的名字一样,GloVe是一个基于全局词频统计(count-based & overall statistics)的词表征(word representation)工具,它和word2vec一样,把一个单词表达成一个低维稠密向量, 可以通过余弦相似度等计算单词之间的相似性。

怎样训练Glove?

Glove 的训练过程比较简单,可以分为3步:

step1:
根据语料库(corpus)构建一个共现矩阵(Co-ocurrence Matrix)X,矩阵中的每一个元素代表单词和上下文单词在特定大小的上下文窗口内共同出现的次数。

通常来说,次数最小是1,但是GloVe根据两个单词在上下文窗口的距离,提出了一个衰减函数, d e c a y = 1 d decay=\frac{1}{d} decay=d1 用于计算权重,也就是说距离越远的两个单词所占总计数的权重越小。

在这里插入图片描述

Step2:

构建词向量(Word Vector)和共现矩阵(Co-ocurrence Matrix)之间的近似关系,作者用了下面的公式:

W i T W j + b i + b j = l o g ( X i j ) W_{i}^{T}W_{j}+b_{i}+b_{j} = log(X_{ij}) WiTWj+b

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值