22.1-RNN\LSTM学习-基础篇

Q1:sequence,Tokenizer的差异

 Q2:Tokenizer(xx),xxtext_to_sequences(xx)
xx.pad_sequences

 Q3:这里边batch_sizeepoches的含义?

 Q2.1:padding是干什么的?
Q2.2:padding对应的是什么》怎么分句的》

 Q3embdding 转换为词向量

 Q4:一个词一个层吗?那长文本不得完蛋

 

 Q5.1:相比于之前的神经网络呢?为什么权重是一样别的?那这里边层级的概念是什么?

 Q6:终于看到RNN的几个变体了,这里边的层级跟刚刚看到的单元有什么区别?这个单元跟我们所说的普通神经网络又有什么区别?

Q7:这里边LSTM增加了什么记忆单元,梯度怎么就消失了

 Q8:主要是看GRU和LSTM有什么差别吗?

看来还真是一个单词,一个向量,一个单元啊

 多层神经网络

Q9:这个双向是什么个操作?

 

 

 每一个词都是具有维数的向量

 Q1:这个跟循环神经网络到底有什么关系

 Q1:双向LSTM的逻辑结构到底是什么?
Q2:GRU何LSTM的优劣势各自差异在哪里?
Q3:传统参数在这个里边到底有着是那么样的对应(代码)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值