自监督词表示学习CBoW和skip-gram的原理与区别-词向量如何生成及如何决定窗口中每个词的概率

目录

one-hot与embedding的区别

 词向量模型Word2Vec(自监督学习)

1、skip-gram(给定中间词→上下文)

 2、CBoW(Continuous Bag-of-Words,给定上下文→中间词)

CBoW和skip-gram的应用上的区别:


one-hot与embedding的区别

one-hot 独热编码:
特征稀疏

词之间相互独立,没有顺序关系

不能表征词与词之间的关系,one-hot 之间是正交的

Embedding :对每一个单词用一个低维且稠密的可学习向量表征

 每一行代表一个词向量,可以做词与词之间的语义运算。

 词向量模型Word2Vec(自监督学习)

分布式假设:具有相似上下文的词语应该是相近的,所以对上下文进行建模

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值