glove 学习笔记

话不多说,入正题。动机:现有的词向量模型, 1 局部上下文建模的方法 例如word2vector 用通俗的话来讲就是,如果两个词在训练语料中出现的上下文比较类似,比如“食堂”和“餐厅”,都在“我”,“去”,“吃饭”这种上下文上出现了许多次,那么他俩的词向量就比较相似。 2 矩阵分解的方法,例如LSA 将文档和单词的共现矩阵,也就是行是文档,列是单词,第i行第j列,表示文档i中是否包含单词j(
摘要由CSDN通过智能技术生成

话不多说,入正题。

动机:

现有的词向量模型,
1 局部上下文建模的方法 例如word2vector
用通俗的话来讲就是,如果两个词在训练语料中出现的上下文比较类似,比如“食堂”和“餐厅”,都在“我”,“去”,“吃饭”这种上下文上出现了许多次,那么他俩的词向量就比较相似。
2 矩阵分解的方法,例如LSA
将文档和单词的共现矩阵,也就是行是文档,列是单词,第i行第j列,表示文档i中是否包含单词j(具体是词频还是是否出现记不清楚了,不过不影响)。然后通过SVD矩阵分解的方式就能够得到两组向量,分别表示文档的向量(可以用来做文本距离)和单词的向量。(这种方法相对于word2vector的优势就是利用了词共现的信息,也就是不仅仅只关注word2vector窗口大小的上下文,而是用到了全局信息)

所以作者就想把两者都优点给结合起来。
那么想把这两个东西都利用起来,应该怎么学习词向量呢?
首先,作者计算了两个东西。记录词典维度为V
1 X ( 一个 VxV的矩阵), Xij 表示了词j和词i所在的上下文中出现的次数,至于上下文,就是在一定范围的窗口内(窗口大小为K)。
2

  • 2
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值