NCE(Noise Contrastive Estimation) 与negative sampling

本文探讨了在面临大量标签时,传统softmax计算效率低下问题。介绍了NCE(Noise Contrastive Estimation)方法,通过构建模型估计样本的真实概率,并计算损失函数进行优化。接着讲解了Negative Sampling,作为二分类问题简化softmax,采用特定的负例采样策略。这两种方法在word2vec等场景中用于高效训练。
摘要由CSDN通过智能技术生成

NCE Noise Contrastive Estimation与negative sampling负例采样

背景

要解决的问题是, 当label太多, 导致使用传统的softmax 输出结果巨大, 计算不高效, 甚至无法实操的问题.
比如:

  1. word2vec cbow的负例.
  2. 或者其他的类似场合: 在一个context= c i c_i ci下, 有一大候选集 L = ( L 1 , L 2 , . . . L j , . . . , L n ) L = (L_1, L_2,...L_j, ..., L_n) L=(L1,L2,...Lj,...,Ln)构成的label集合可供选择. 训练样本中正例只有一个(or若干个), 其他的都为负label.

NCE(Noise Contrastive Estimation)

假设共有 m m m个样本 ( ( l i , c i ) ) ((l_i, c_i)) ((li,ci)), 建模:
P ( l i ∣ c i ) = u θ ( l i , c i ) ∑ i n u θ ( l j , c i ) = u θ ( l i , c i ) Z i P(l_i|c_i) = \frac{u_{\theta}(l_i, c_i)}{\sum_i^n{u_{\theta}(l_j, c_i)}} = \frac{u_{\theta}(l_i, c_i)}{Z_{i}} P(lici)=inuθ(lj,ci)uθ(li,ci)<

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值