word2vec Parameter Learning Explained笔记

本文详细介绍了word2vec的参数学习过程,包括CBOW模型、Skip-gram模型、Hierarchical softmax和Negative Sampling。在CBOW模型中,通过输入词的上下文预测词本身;Skip-gram模型则是由词预测其上下文;Hierarchical softmax利用二叉树结构降低计算复杂度;Negative Sampling通过采样减少训练中的向量更新。文章深入讲解了每个模型的数学原理和权重更新公式。
摘要由CSDN通过智能技术生成
目录

1.CBOW模型
2.Skip Gram模型
3.Hierarchical softmax
4.Negative Sampling
前言,下面公式多次用到的求导法则:
sigmoid函数的导数具有以下形式:
在这里插入图片描述

1.CBOW模型

首先从输入输出都是一个词的模型讲起。

在这里插入图片描述
模型中词典大小为V,隐藏层规模为N,连接层为全连接,输入层为one-hot编码方式。对于一个特定词,词向量为x={x1,x2,…,xv},则模型输入为x,权重矩阵为W。隐藏层的求解公式如下所示:
在这里插入图片描述
因为x中只有一位为1,其它为都为0,所以h向量其实就是input->hidden权重矩阵WW的某一行结合输入单词ωI的向量拷贝,即如下所示:
在这里插入图片描述
隐藏层到输出层的权重记为W’,vwj为w’的一行,uj为标量,可用来对输出的每一个值打分,分高的对应预测的可能性更高。
在这里插入图片描述
对于输入词i,输出词为j的概率为:
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值