python自然语言处理—Word2vec

Word2vec是NLP领域的词嵌入方法,由谷歌的Mikolov于2013年提出。它将词转化为可计算的向量,包括CBOW和Skip-gram两种训练模式。尽管在2018年后被BERT等方法超越,但其在NLP任务中的通用性和速度仍有一定优势。
摘要由CSDN通过智能技术生成

                                                             Word2vec

 

    Word2vec 是 Word Embedding 方式之一,属于 NLP 领域。它是将词转化为 【可计算】【结构化】的向量的过程。本文将讲解 Word2vec 的原理和优缺点。

    这种方式在 2018 年之前比较流行,但是随着 BERT、GPT2.0 的出现,这种方式已经不算效果最好的方法了。

一、什么是 Word2vec?   

    1、什么是 Word Embedding?

        在说 Word2vec 之前,需要先了解一个 Word Embedding。它就是将【不可计算】【非结构化】的词转化为【可计算】【结构化】的向量。

        这一步解决的是 "将现实问题转化为数学问题",是人工智能非常关键的一步。

        了解更多,可以看这篇文章:《python自然语言处理—词嵌入 | Word embedding

        将现实问题转化为数学问题只是第一步,后面还需要求解这个数学问题。所以 Word Embedding 的模型本身并不重要,重要的是生成出来的结果——词向量。因为在后续的任务中会直接用到这个词向量。

    2、什么是 Word2vec?   

        

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值