NLP学习笔记:word2vec

本文探讨了词嵌入(如word2vec)在自然语言处理中的重要性,以及one-hot编码作为词向量表示的缺点,如稀疏性和无法计算相似度。针对这些问题,介绍了跳字模型(skip-gram)和连续词袋模型(CBOW)作为解决方案。
摘要由CSDN通过智能技术生成

1 词嵌入(word2vec)

在自然语言这套系统中,词是表义的基本单元。

但是在计算机以及程序运算中,词是识别不了的。任何的内容都需要转化成向量embedding的形式。

于是我们就需要对词的特征进行表征,所以词向量就应运而生了。

把词映射为实数域向量的技术也叫词嵌入(word embedding)。

2 用onehot表示词向量的弊端

2.1 onehot 词向量

假设词典中一共有N个不同的词,每个词可以和从0到N−1的连续整数一一对应。这些与词对应的整数叫作词的索引。

假设一个词的索引为i,那么该词的onehot词向量就是只有第i位位1,其他N-1位全部为0的向量。

换句话说:就是有多少个不同的词,我就会创建多少维的向量。

2.2 onehot词向量存在的问题

1 词向量集合过于稀疏,需要极大的存储空间

2 无法进行单词之间的相似度计算。(因为每个单词在空间中都是正交的向量,彼此之间没有任何联系。)【像坐标系中的向量,我们可以根据余弦相似度(两个向量之间的夹角)来判断两个向量的相似程度】

2.3 onehot词向量问题的解决方案

1,跳字模型(skip-gram):通过中心词来推断上下文一定窗口内的单词。

2,连续词袋模型(continuous bag of words,CBOW):通过上下文来推断中心词。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值