递归神经网络RNN常识
本博客持续更新中!!!若有改进意见请在评论区留言,感谢!
- 传统神经网络无法考虑时间序列问题
- 前一个时刻训练的特征保留参与下一次训练
- 应用领域CNN-CV,RNN-NLP
- RNN会考虑前面所有特点,LSTM通过控制参数C决定什么样的信息会被保留,什么样的信息回被遗忘
词向量模型Word2Vec
- NLP领域比较热门的模型,词向量模型Word2Vec。用向量来表示词,维度越高越准确。输入,先从词库(随机初始化词向量)中找到词向量,然后预测标签输出,可以看作一个N个词的分类。词库中的词向量是随着训练不断更新的,训练过程先更新权重再更新词向量。
数据来源:有逻辑的文本都可以,英文已经分好词了,中文需要我们自己分一下词。在文本中滑动窗口,不断扫描。 - CBOW模型输入上下文,输出中间的词
- Skip-gram模型,输入中间词,输出上下文
- 由于最后一层相当于N个词分类,使用CNN模型太复杂了,解决方法,原来inupt(A),output(B),现在AB同时作为输入,输出标签为1,表示输入A就得到输出B。利用负采样,创建一些没有的前后词,负采样inupt(A),output©,输出标签为0。一般1次正采样,5次负采样
- BiLSTM双向LSTM,如图输入我,爱,中国,先将其转为3维向量,上面从前往后走,下面从后往前走,并将得到的向量拼接
6. LSTM的层,如图,共有三层(蓝色部分),一般用最后一层的最后一个当做输出(红色部分)