动手学深度学习第十六课:词向量Word2vec

知乎好文章

Skip-gram 和 CBOW 模型

在这里插入图片描述

推荐视频

动手学深度学习相关课程

one-hot:

余弦相似度都是0

word2vec:

在这里插入图片描述
类比关系指的是 男人词向量-女人词向量,得到的结果,应该和,国王词向量-王后词向量,得到的结果差不多。

跳字模型:skip-gram:

在这里插入图片描述
注意看懂上面的概率,很好理解。
模型的目的就是使得上面计算的这个概率值最大。
进行如下转化,log:不影响单调性,性质:乘法应该换加法。
加个-
那么就是求最小值。
则可以把下面的这个当做损失函数。
在这里插入图片描述*

具体到词向量:

在这里插入图片描述
其中分子表示的是词向量c和词向量o的点积
分母表示的是全部的
只是使用了一个softmax。

要点:一个词应该有两个词向量,一个是作为中心词时的词向量,一个是作为背景词时的词向量。

求梯度:
在这里插入图片描述

连续词袋模型:CBOW:

在这里插入图片描述
相当于最小化如下:
在这里插入图片描述
转化为词向量:
在这里插入图片描述

可以看出,上面的两种训练方法再求梯度时与整个词典的大小相关。

因此,采用了近似训练法。

负采样:

在这里插入图片描述
以skip-geam为例,经过如下的一波操作,复杂度由词表大小o(|V|)降成了o(K),而且K是由自己定义的。
在这里插入图片描述
值得注意的一点是,噪声词的选取,可以是随机给的,概率一般为3/4,不是必须词表-背景词。

层序softmax:

使用2叉树,复杂度降为二叉树的深度,也就是log(词典大小)
在这里插入图片描述
是向左走,1,是向右走,-1,概率和之后相加还是1.妙!

在使用时,使用哪个词向量呢?一般使用的都是中心词向量。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值