word2vec之skip-gram算法原理

skip-gram算法通过输入一个单词的one-hot编码,预测其上下文单词,目标是最小化目标单词与输出单词概率的交叉熵。隐藏层生成单词的向量表示,输入层使用查找表,输出层是softmax分类器。优化策略包括词对处理、高频词抽样和负采样,负采样依据一元分布模型选择负样本。
摘要由CSDN通过智能技术生成

skip-gram算法原理

1.input,output,target
input的某个单词的one-hot编码(11000 词汇量的总数目)
output其他所有单词的概率(softmax 输出也是1
1000)
target是相近单词的one-hot形式

2.Loss
target和output的矩阵的交叉熵最小 or 平方差最小

3.NNet
3.1 隐层
300个神经元,需要训练的权重矩阵大小是1000300
本层的输出是: 1
1000 . 1000300 = 1300;
单词的词汇向量表示为1300; 单词的vector,embedding.
3.2 输入层
输入层是one-hot,并不需要实际计算矩阵运算,只需按照ont-hot的特点对于隐层权重值做lookup table"查找表"
(输入层相当于投影层, https://zhuanlan.zhihu.com/p/27234078)
3.3 输出层
softmax回归分类器
对于每一个节点的输出一个概率,output 1
1000
3.4 意义
两个单词拥有相似的“上下文”, 这两个词语的embedding features vector也会非常近似

4.优化
word2vec是一个权重规模非常大的神经网络 => gradient descent slowly
1.word pairs and “phas

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值