24.循环神经网络RNN

RNN原理

对于一个句子,可能会因为句子过长而导致参数太多,或者上下不联系,我们无法像平常说话一样根据前文推理后面。
我们通过权值共享减少参数,每个单词共用同一个w和
b。
使用memory,持续的单元(consistent memory)贯穿整个网络,能保存语境信息。
在这里插入图片描述

最开始的memory初始化为h0,与feature送入的xt合在一起考虑,会生成新的memory为ht,类似于语境信息,ht会根据上一个语境或者新的输入不停的更新,这也是RNN与CNN不同的地方。

在这里插入图片描述
对于ht的选取,根据自己的需要,可以选取最后一个,也可以选取综合的ht。

在这里插入图片描述
Whh是对h的一个特征提取,Wxh对x的特征提取,整体合起来来经过激活函数tanh。
yt可以理解为一个Linear层,ht根据当前的ht做一个变换得到yt。

how to train

在这里插入图片描述

因为权值共享,使用同一个w和h,当前时刻的w和h对当前的y进行影响。
在这里插入图片描述

推导过程

在这里插入图片描述
在这里插入图片描述

RNNLayer使用

rnn=nn.RNN(100,10)
print(rnn._parameters.keys())
print(rnn.weight_ih_l0.shape)
print(rnn.bias_ih_l0.shape)

100是word dim即input dim,10是memory即hidden dim

在这里插入图片描述

nn.RNN

init

input_size,表示用几个向量来表示我们的单词
hidden_size,即memory size
num_layers,默认是1

out,ht=forward(x,h0)

x:[seq len,b,word vec],单词的数量、句子的数量、input_size。
h0/ht:[num layers,b,h dim],是特定时间的,h是最后一个时间的所有状态
out:[seq len,b,h dim],out是返回所有聚合过的信息。是所有时间点上的最后一个状态。

单层RNN

在这里插入图片描述

rnn=nn.RNN(input_size=100,hidden_size=20,num_layers=1)
print(rnn)
x=torch.randn(10,3,100)
out,h=rnn(x,torch.zeros(1,3,20))
print('out:',out.shape)
print('h:',h.shape)

在这里插入图片描述

多层RNN

在这里插入图片描述
原本的h是[1,b,20],out是[10,b,20,]现在h变成了[2,b,20],out是[10,b,20]。对于多层来说,out是不变的,永远都是所有的。

rnn=nn.RNN(input_size=100,hidden_size=20,num_layers=4)
print(rnn)
x=torch.randn(10,3,100)
out,h=rnn(x)
print('out:',out.shape)
print('h:',h.shape)

在这里插入图片描述

nn.RNNCell

nn.RNN都是句子一次性送入,nn.RNNCell不会循环。
两者的初始化一样,forward不一样。

ht=rnncell(xt,ht_1)

xt:[b,word vec]
ht_1/ht:[num layers,b,h dim]
out=torch.stack([h1,h2,…,ht])

单层

我们需要进行人为的循环。
有几个时间戳就for几次。

x=torch.randn(10,3,100)
cell1=nn.RNNCell(100,20)
h1=torch.zeros(3,20)
for xt in x:
    h1=cell1(xt,h1)
print(h1.shape)

在这里插入图片描述

多层

cell1和cell2的30位置必须匹配起来。

cell1=nn.RNNCell(100,30)
cell2=nn.RNNCell(30,20)
h1=torch.zeros(3,30)
h2=torch.zeros(3,20)
for xt in x:
    h1=cell1(xt,h1)
    h2=cell2(h1,h2)
print(h2.shape)

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值