python自然语言处理—Word2vec模型之Skip-gram

本文详细介绍了Word2vec Skip-gram模型的工作原理,包括模型图示例、one-hot编码、查找表(词嵌入)以及模型的数学原理。通过对中心词预测上下文词的概率,最终学习到词向量表示,实现词语的语义表示。
摘要由CSDN通过智能技术生成

                                      Word2vec 模型之 Skip-gram(跳字)模型

 

一、skip-gram 模型图

    

    

二、skip-gram 模型图示例说明

    举个例子来说明这个图在干嘛:

        1、假设我们的文本序列有五个词,["the", "man", "loves", "his", "son"]。

        2、假设我们的窗口大小为 skip-window=2,中心词为 "loves",那么上下文的词即为:"the"、"man"、"his"、"son"。这里的上下文词又称作 "背景词"&#

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值