深度学习笔记(四十三)新序列的采样及RNN梯度消失

一、新序列的采样

Sampling
一个序列模型模拟了任意特定单词序列的概率,我们要做的就是对这个概率分布进行采样,来产生一个新的单词序列。
在这里插入图片描述
编程时采用numpy.random.choice()进行采样。
如何判定句子到了末尾呢?当遇到< EOS >时会提示模型句子到了末尾,或者在采样过程中设置最大时间步。

Character-level language model
之前提到的都是词汇级别的语言模型,其实也可以是字符级别的语言模型。
在这里插入图片描述
比如 Cat eats. 这样的句子,在词汇级别的模型中, y < 1 > y^{<1>} y<1>是Cat, y < 2 > y^{<2>} y<2>是eats;而在字符级别的模型中, y < 1 > y^{<1>} y<1>是C, y < 2 > y^{<2>} y<2>是a, y < 4 > y^{<4>} y<4>是空格符。

基于字符的语言模型优缺点也很明显:优点就是不用担心出现位置单词标识,比如基于字符的语言模型允许出现 mau 这样的未知序列,而在基于词汇的语言模型中只能将其标识为< UKN >。基于字符的语言模型最后会得到太多太长的序列,所以在捕获句子的依赖关系不如基于词汇的模型那样可以捕获长句子关系,训练起来的计算成本也会比较昂贵。

现在的趋势就是,优先采用基于词汇的语言模型,但是随着计算机性能越来越好,会有更多应用在一些情况下开始用基于字符的模型。

下面是两个例子,分别用新闻和莎士比亚文章训练出来的模型来生成一段全新的文本:
在这里插入图片描述
到这里,已经介绍了RNN的基础结构,以及如何建立一个语言模型并使用它对训练出的语言模型进行采样。

二、RNN的梯度消失

在这里插入图片描述
看上面两句话:

cat ... was
cats ... were

当RNN网络够深时,我们到目前认识的简单RNN模型很难反向传播回去,会出现梯度消失的情况,因此很难影响到前面层的参数。
在上面的例子中,cat(s)和was(were)则可能相隔很远,所以cat这个时间步会很难决定到后面用was还是were,同时反向传播也很难传回到cat那里。后面将会讲解如何处理梯度消失,否则RNN不擅长处理长期依赖问题(long-range dependency)。

提到梯度消失,就回想到之前学过的梯度爆炸:随着网络加深,梯度可能呈指数型上升,这也是训练RNN时的首要问题,因为可能导致参数变得巨大而崩溃。当见到NaN(Not a Number)时,就可能出现了梯度爆炸,解决梯度爆炸的一种方式是梯度裁剪(gradient clipping),即观察梯度向量,当它大于某个阈值时,缩放梯度向量,保证其不会过大。

综上所述,其实梯度爆炸相比于梯度消失更好解决,通常采用梯度裁剪的方式。在后面的课程中,会介绍GRU(门控循环单元,Gated Recurrent Unit)单元来解决梯度消失的问题,从而帮助神经网络网络捕获更长的长期依赖。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mr.zwX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值