递归神经网络RNN常识

递归神经网络RNN常识

本博客持续更新中!!!若有改进意见请在评论区留言,感谢!

  1. 传统神经网络无法考虑时间序列问题
  2. 前一个时刻训练的特征保留参与下一次训练

在这里插入图片描述

  1. 应用领域CNN-CV,RNN-NLP
  2. RNN会考虑前面所有特点,LSTM通过控制参数C决定什么样的信息会被保留,什么样的信息回被遗忘
    在这里插入图片描述

词向量模型Word2Vec

  1. NLP领域比较热门的模型,词向量模型Word2Vec。用向量来表示词,维度越高越准确。输入,先从词库(随机初始化词向量)中找到词向量,然后预测标签输出,可以看作一个N个词的分类。词库中的词向量是随着训练不断更新的,训练过程先更新权重再更新词向量。
    在这里插入图片描述数据来源:有逻辑的文本都可以,英文已经分好词了,中文需要我们自己分一下词。在文本中滑动窗口,不断扫描。
  2. CBOW模型输入上下文,输出中间的词
  3. Skip-gram模型,输入中间词,输出上下文
    在这里插入图片描述
  4. 由于最后一层相当于N个词分类,使用CNN模型太复杂了,解决方法,原来inupt(A),output(B),现在AB同时作为输入,输出标签为1,表示输入A就得到输出B。利用负采样,创建一些没有的前后词,负采样inupt(A),output©,输出标签为0。一般1次正采样,5次负采样
  5. BiLSTM双向LSTM,如图输入我,爱,中国,先将其转为3维向量,上面从前往后走,下面从后往前走,并将得到的向量拼接
    在这里插入图片描述6. LSTM的层,如图,共有三层(蓝色部分),一般用最后一层的最后一个当做输出(红色部分)
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一步一个脚印ッ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值