4. RNN网络架构解读|词向量模型|模型整体框架|训练数据构建|CBOW和Skip-gram模型|负采样方案

RNN网络架构解读

递归神经网络实际上就是普通的神经网络的部分进行修改更新:实际上常用于时间序列的更新。或者就是自然处理中

在这里插入图片描述
X序列代表着时间序列,x0是一个时间点,x1是下一个时间点。h就是中间输出的结果值,但是h又会输入到下一个时间点当中去运算。

-LSTM网络
是在Rnn网络的基础上进行改进的,加上一个C控制单元,用来控制当前模型的模型复杂度。

词向量模型

词向量模型实际上就是设置一个50维度-300维度的向量集,将相似的词安排到比较接近的向量分配当中,达到可以通过向量来反映出词,并且词义较为接近的词,所处在的向量空间,也较为接近。

举个构造的词向量模型:(50个特征)
在这里插入图片描述

模型整体框架

通常的情况下,向量的维度越高,能提供的信息也就越多,从而计算结果的可靠性也就越大。

具体的框架见下,实际上就是我输入thou shalt之后对于我接下来准备输入的数据的预测。中间的黑盒子,使用的也就基本与神经网络方法是差不多的,先前向传播,得到loss之后再反向传播进行修改相对应的w。
在这里插入图片描述

训练数据构建

构造训练数据的过程其实也非常简单,实际上也就是和之前的滑动窗口的方式差不多。
在这里插入图片描述

CBOW和Skip-gram模型

有了训练数据之后就可以开始挑训练模型了:

CBOW模型:
在这里插入图片描述
CBOW的训练是取要填入之地的前两个单词以及后两个单词作为输入,然后通过神经网络判断得出最有可能的输出值作为输出。

在这里插入图片描述

Skip-gram模型:

与CBOW模型相反
在这里插入图片描述

负采样方案

解决由于语言库太大,最后一层softmax计算起来就会十分耗时。

方式解决就是:变成同时输入not thou 进行判断thou是not后面的概率为多少。
在这里插入图片描述
但是在这种过程中,你训练的文本得出的训练量其实都是1,比如我们一句话放进去训练,它总是拿这句话进去判断是否是导致训练量全是1,所以我们就需要人为的提供一些文本当中没有出现的训练量,并使其为0.这也就是负采样模型。

通常情况下,负采样模型的个数应当是5个。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值