NLP——基于深度学习的自然语言处理

本文介绍了自然语言处理(NLP)中深度学习的应用,包括One-hot编码和Embedding编码的区别,重点讨论了词向量模型Word2Vec的skip-gram和CBOW两种方法。skip-gram关注预测上下文单词,而CBOW则关注预测中间词,两种方法各有优劣。
摘要由CSDN通过智能技术生成

NLP

编码方式

One-hot独热编码(人为规定)

  • 特征系稀疏
  • 词之间相互独立
  • 不能表征词与词之间的关系,one-hot之间正交

Embedding编码(词向量矩阵)

  • 特征稠密
  • 能够表征词语词之间的互相关系
  • 泛化性更好(one-hot与之相比就是完全命中),支持语义计算
    在这里插入图片描述

词监督词向量方法

词向量模型(Word2Vec)

  • skip-gram(自监督学习)
    skip-gram目标是:最大化上下文单词的预测概率
    在这里插入图片描述
    skip-gram过程如下图所示:

在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值