读论文Distributed Representations of Words and Phrases and their Compositionality(自学使用)

来自:NIPS2013

一:解决了什么问题?

针对论文Efficient Estimation of Word Representations in Vector Space中提出CBOW和Skip-gram俩种模型计算softmax时因为语料库V太大导致计算复杂度偏高的问题。提出了俩种方式分层采样和负采样俩种方式。

二:怎样解决的问题?

1:Hierarchical Softmax 

层次softmax的核心思想就是通过引出二叉树结构(Huffmax 二叉树)将求softmax的计算转为求sigmoid的计算,从而将计算复杂度从V 降到log2V 
2:Negative Sampling

负采样的核心思想就是将多分类(V类)问题转为二分类问题。Softmax之所以慢,是因为它涉及一个多分类问题,且和词表大小V 相关的。负采样就是舍弃多分类,转为二分类来提升速度。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值