word2vec是如何得到向量的(CBOW模型)

这篇博客记录了word2vec的CBOW模型,通过上下文预测中心词,介绍了模型的权重矩阵、输入输出过程及算法加速技巧,旨在理解和应用词向量。
摘要由CSDN通过智能技术生成

学习笔记

只是自己的学习笔记,只把自己要记忆的知识写下来。
简单理解的链接: word2vec是如何得到向量的

word2vec的准备操作:中文需要将每句话用工具分词(jieba等)

word2vec的作用:是将语料库中的词训练出各自的词向量,供NLP其他后续具体任务的使用。

word2vec的处理方法:两种训练方法CBOW模型和Skip-gram模型。]

word2vec的算法加速方法Negative SampleHierarchical Softmax

1.CBOW模型根据中心词W(t)周围的词来预测中心词
2.Skip-gram模型则根据中心词W(t)来预测周围词

在这里插入图片描述

上图中两个矩阵是CBOW模型要不断学习迭代的: W v ∗ n W_{v*n} W

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值