tf.nn.sampled_softmax_loss 和 tf.nn.nce_loss

TensorFlow实战 笔记——tf.nn.nce_loss:https://blog.csdn.net/qq_36092251/article/details/79684721

tf.nn.sampled_softmax_loss候选采样损失函数:https://blog.csdn.net/wang263334857/article/details/96430541#commentBox

主要用途是在nlp里,求词向量时,在最后一步用softmax时,由于真是标签是一个超长的稀疏向量,例如词表是6万个单词,那么最后预测的softmax计算里,有大部分计算属于无效计算。会大大减缓计算速度,因此 出现了负采样,将一个6万的多类别分类问题,转化为 6万个二分类问题,并只取一部分的二分类计算。这样可以大大减少无效的计算量

上面提到的tf的这个函数就是这个功能

(我觉得不用深究,会用就好~)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值