word2vec原理

参考Xin Rong的论文 word2vec Parameter Learning Explained,写得真的很好

输入的onehot是只有一个元素为1其他全为0的,因此,我们做一个矩阵乘法,相当于把矩阵W中的某一行全部取出而已!!!

cbow版本是输入context,输出中心词

skip gram版本是输入中心词,输出context

其中,skipgram在大型语料库中的表现较好。

层次Softmax 实际上是把一个超大的多分类问题转化成一系列二分类问题

对于w2v,在output的时候,计算出每个词的一个score,之后有一个softmax运算,softmax运算的大部分时间在于分母的计算,而如果使用了层次softmax,从一个词到另一个词的过程相当于一个构造一棵haffman树往并下走(补充:haffman数是二叉树,其中权重越大的越靠近根节点,所有节点的权重之和比其他方式都小)

每往下一层,就相当于一个二分类(逻辑斯蒂回归,二元softmax),而从一个根节点到叶子节点的总共的概率就是各层概率之和,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值