[文本挖掘]word2vec 笔记

本文深入探讨word2vec的理论基础,包括skip-gram模型及其扩展,CBOW模型,以及word2vec训练中的hierarchical softmax和negative sampling技巧。通过理解这些概念,可以更好地掌握词向量的生成和优化。
摘要由CSDN通过智能技术生成

[文本挖掘]word2vec 笔记

Xin Rong 的论文:『word2vec Parameter Learning Explained』:
!重点推荐! 理论完备由浅入深非常好懂,且直击要害,既有 high-level 的 intuition 的解释,也有细节的推导过程
一定要看这篇paper!一定要看这篇paper!一定要看这篇paper!

1. 提纲挈领地讲解 word2vec 的理论精髓

1.1 skip-gram

在这里插入图片描述
如果用one-hot encoder形式表示每一个单词。
输入一个词由X1-Xv表示,输出的就是在这v个词上的输出概率,我们要用反向传播算法训练这个神经网络。

隐层的激活函数是线性的相当于没做任何处理。

当模型训练完后,我们想要得到的是神经网络的权重。
word2vec 的精髓如下:

比如现在输入一个 x 的 one-hot encoder:
[1,0,0,…,0],对应v个单词中的第一个单词,则在输入层到隐含层的权重里,只有对应 1
这个位置的权重被激活,这些权重的个数,跟隐含层

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值