NLP基础学习(三)

NLP基础学习(三)

Efficient Estimation of Word Representations in Vector Space
论文精读
在这里插入图片描述
对比模型:
NNLM(前馈神经网络语言模型)
RNNLM(循环神经网络语言模型)

第一种
Feedforward Neural Net Language Model
在这里插入图片描述
输入层:
在这里插入图片描述
隐藏层:
在这里插入图片描述
输出层:
在这里插入图片描述
softmax两个性质:
1、得到的所有数都是0到1之间的
2、所有数相加是1

困惑度的计算(困惑度与loss之间的关系):
在这里插入图片描述
对困惑度求log就是求LOSS
即:log(PP(s)) = Loss
所以:
在这里插入图片描述
网络结构回顾:
1、仅对一部分输出进行梯度传播(比如对于一些例如the a and的词汇不进行或者降低梯度传播)
2、引入先验知识,如词性等(实验证明,模型在一定规则下也可以对词性进行自主学习)
3、解决一词多义的问题
4、加速softmax层。(1、层次softmax 2、负采样)

基于循环神经网络的语言模型
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值