TensorFlow实战 笔记——tf.nn.nce_loss:https://blog.csdn.net/qq_36092251/article/details/79684721
tf.nn.sampled_softmax_loss候选采样损失函数:https://blog.csdn.net/wang263334857/article/details/96430541#commentBox
主要用途是在nlp里,求词向量时,在最后一步用softmax时,由于真是标签是一个超长的稀疏向量,例如词表是6万个单词,那么最后预测的softmax计算里,有大部分计算属于无效计算。会大大减缓计算速度,因此 出现了负采样,将一个6万的多类别分类问题,转化为 6万个二分类问题,并只取一部分的二分类计算。这样可以大大减少无效的计算量
上面提到的tf的这个函数就是这个功能
(我觉得不用深究,会用就好~)