Q1:sequence,Tokenizer的差异
Q2:Tokenizer(xx),xxtext_to_sequences(xx)
xx.pad_sequences
Q3:这里边batch_size和epoches的含义?
Q2.1:padding是干什么的?
Q2.2:padding对应的是什么》怎么分句的》
Q3embdding 转换为词向量?
Q4:一个词一个层吗?那长文本不得完蛋
Q5.1:相比于之前的神经网络呢?为什么权重是一样别的?那这里边层级的概念是什么?
Q6:终于看到RNN的几个变体了,这里边的层级跟刚刚看到的单元有什么区别?这个单元跟我们所说的普通神经网络又有什么区别?
Q7:这里边LSTM增加了什么记忆单元,梯度怎么就消失了
Q8:主要是看GRU和LSTM有什么差别吗?
看来还真是一个单词,一个向量,一个单元啊
多层神经网络
Q9:这个双向是什么个操作?
每一个词都是具有维数的向量
Q1:这个跟循环神经网络到底有什么关系?
Q1:双向LSTM的逻辑结构到底是什么?
Q2:GRU何LSTM的优劣势各自差异在哪里?
Q3:传统参数在这个里边到底有着是那么样的对应(代码)