NLP基础学习(五)

NLP基础学习(五)

复杂度降低
在这里插入图片描述
其中U为周围词矩阵,V为中心词矩阵。
方法一:层次softmax
在这里插入图片描述
假如词表大小为8,做softmax需要计算8次,而sigmoid满二叉树方法只需要计算3次就可以得到结果

比满二叉树更快的方法就是构建哈夫曼树:
带权重路径最短二叉树
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在CBOW上的层次softmax:
在这里插入图片描述
第二种方法:负采样
在这里插入图片描述
核心思想:舍弃多分类来提升速度
如何采样:
在这里插入图片描述
选用3/4使得出现频率大的词适度减小,出现频率小的词适度增大概率。
这样做的好处可以加速训练,并且使得训练效果更好。

CBOW与负采样的配合使用:
在这里插入图片描述
最后一个技术:重采样
在这里插入图片描述
出现次数多的词往往携带的信息少,而出现次数低的词携带的信息往往更多。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值