softmax算法c语言,word2vec:基于层级 softmax 和负采样的 CBOW

今天我们来看一下 word2vec,它是自然语言处理中非常重要的概念,是一种用语言模型做词嵌入的算法,目的就是将文字转化为更有意义的向量,进而可以让深度神经网络等模型更好地理解文本数据。

词嵌入

词嵌入(Word Embeddings)就是将文本转化为数字表示,转化成数值向量后才能传递给机器学习等模型进行后续的训练和运算,并应用于情感分析文档分类等诸多任务中。

词嵌入的方法主要有两大类:基于传统频数统计的词嵌入,和基于预测算法的词嵌入。

其中传统的词嵌入方法有:

计数向量

TF-IDF 向量

共现矩阵

One-hot 向量

1. 计数向量

就是统计每个单词在各个文档里出现的次数。例如我们有 N 个文档,这些文档里的不重复的单词组成了一个字典,然后构建一个矩阵,矩阵的每一行代表每个文档,每一列代表字典里的每个单词,矩阵的数值是每个单词在各文档里出现的次数,最后每一列就构成了这个词的向量表示:

49db0891d4a998727204c02e50251ff9.png

2. TF-IDF 向量

在每个文档中有一些单词对理解文档起着很重要的作用,而有一些词例如特别常见的冠词等几乎在每个文档中都存在,这些词对理解文档的意义并不大,所以需要放大有意义的词的作用,减少常用词的影响,TF-IDF(Term Frequency–Inverse Document Frequency)就是一种这样的方法。

例如我们有这样一个例子

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值