Word2Vec学习笔记(三)续

三、(续)Skip-gram模型介绍

    Skip-gram模型并不是和CBOW模型相反的,它们的目的都是计算出词的向量,只不过在作者的论文中给出的图看样子是反的而已。Skip-gram模型是用每个当前词去预测一定范围内除当前词之外前后的词。同样的,此模型也是输出一颗huffman树,如下图所示:此图也借用下图借用
http://blog.csdn.net/itplus/article/details/37969979
Skip-gram模型示意图

Skip-gram模型的目标函数

    由于Skip-gram的模型输入是当前词,目的是预测它周围的词,因此,此任务的目标函数如下所示:

L=wClogP(context(w)|w)

由于 context(w) 是一个句子,因此,可以将 P(context(w)|w) 写成如下形式:
P(context(w)|w)=ucontext(w)P(u|w)

根据hierarchical softmax的讨论:
P(u|w)=j=2luP(duj|v(u);θj1)

那么:最终的目标函数可以写为:
L=wClogucontext(w)j=2luP(dwj|v(u);θj1)

这里, θ,v(w) 的更新公式先留着,待推导完再进行补充。
今天推导了一下,其实和上节中的推导差不多,现将推导过程记录一下

L=wClogucontext(w)j=2luP(dwj|v(u);θj1)=wCucontext(w)j=2lulogP(dwj|v(u);θj1)=wCucontext(w)j=2lulog{[1σ(v(w)Tθuj1)]dujσ(v(w)Tθuj1)]1duj}=wCucontext(w)j=2lu{dujlog[1σ(v(w)Tθuj1)]+(1duj)log[σ(v(w)Tθuj1)]}

f=dujlog[1σ(v(w)Tθuj1)]+(1duj)log[σ(v(w)Tθuj1)] ,则分别求出 f θj v(w) 求偏导数:
fθuj1=[1dujσ(v(w)Tθuj1)]v(w)fv(w)=[1dujσ(v(w)Tθuj1)]θuj1

那么 θ v(w) 的更新公式如下:
θuj1:=θuj1+η[1dujσ(v(w)Tθuj1)]v(w)v(w):=v(w)+ucontext(w)j=2lu[1dujσ(v(w)Tθuj1)]θuj1

Word2Vec 的重点参考文献

  1. Efficient Estimation of Word Representations in Vector Spaceh. http://arxiv.org/pdf/1301.3781v3.pdf
  2. Distributed Representations ofWords and Phrases and their Compositionality. https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf
  3. Exploiting Similarities among Languages for Machine Translation. http://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/44931.pdf
  4. http://blog.csdn.net/itplus/article/details/37969979
  5. http://www.cnblogs.com/neopenx/p/4571996.html
  6. http://blog.csdn.net/zhoubl668/article/details/24319529
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值