Trm理论 2(Word2Vec)

神经网络模型(NNLM)和Word2Vec

NNLM模型是上次说过的模型,其目的是为了预测下一个词。
softmax(w2tanh(w1x + b1)+b2)
会得到一个副产品词向量
而Word2Vue就是专门求词向量的模型
softmax(w2*(w1*x + b1)+b2)

Word2Vec

softmax(w2*(w1*x + b1)+b2),Word2vec比NNLM少了一个激活函数tanh,其原因是word2vec目的是求词向量,并不需要预测结果的准确性,只需要反向传播能正常进行即可。
Word2Vec分为两种
CBOW和skip-gram
在这里插入图片描述
左图是CBOM,右图是skip-gram
word2vue的目的是训练得到Q矩阵,并非预测词,因此重要的是训练过程
CBOM像是一个老师训练多个学生,skip-gram是一堆老师训练一个学生

CBOM

CBOM是用一个词的上下文预测出这个词,“这是一瓶很好喝的牢大冰红茶”,分词后,输入“这是一瓶很__牢大冰红茶”

skip-gram

skip-gram是用一个词,预测出他的上下文,输入“很好喝的”,输出“这是一瓶很__牢大冰红茶”

Word2Vec的缺点

Q矩阵的形成是由训练的数据决定的,因此当你使用训练好的Q矩阵应用于下游任务时,会出错。
举个例子,训练Q矩阵时,所有的苹果意思就是水果,而应用于下游任务的时候,我想表达苹果手机,预测就会出现相差很大的问题

word2vec的下游任务改造

word2vec得到的Q矩阵是预训练的一种
首先得到下游任务的独热编码,在使用word2vec的Q矩阵得到词向量,最后进行接下来的任务。

学习视频连接如下

该文章是学习b站up主水论文的程序员的笔记,链接如下可自行学习

https://www.bilibili.com/video/BV1mZ4y1q7J2/?spm_id_from=333.788&vd_source=2910693b31a0847b17a3d12d76d0e3f1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值