NLP基础学习(四)

本文介绍了NLP基础中的Word2vec模型,包括log-linear模型的概念,以及Word2vec的核心思想——通过上下文预测词汇。skip-gram模型利用中心词预测周围词,而CBOW则是通过周围词来预测中心词,两种方法都在构建词向量表示中发挥关键作用。
摘要由CSDN通过智能技术生成

NLP基础学习(四)

Word2vec知识树
在这里插入图片描述
log-linear model
定义:将语言模型的建立看成是一个多分类的问题,相当于线性分类器加上softmax
Y = softmax(wx+b)

Word2vec原理

语言模型的基本思想:句子中下一个词的出现与前一个词是有关系的,所以可以使用前面的词预测下一个词

Word2vec基本思想:句子中相近词是有联系的,比如今天后面常常出现上午,中午,晚上等词语。所以Word2vec的基本思想就是用词来预测词,skip-gram使用中心词预测周围词,而cbow使用周围词来预测中心词。

skip-gram原理
在这里插入图片描述
skip-gram模型
在这里插入图片描述
其中W代表中心词表,W*代表周围词表

在这里插入图片描述

CBOW原理
在这里插入图片描述
在这里插入图片描述
其中W*代表中心词表,W代表周围词表

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值