【吴恩达deeplearning.ai】Course 5 - 1.6 语言模型和序列生成

语言模型和序列生成 (Language Model and Sequence Generation)

在自然语言处理中,构建语言模型是最基础的也是最重要的工作之一,并且能用RNN很好地实现。在本视频中,你将学习用RNN构建一个语言模型,在本周结束的时候,还会有一个很有趣的编程练习,你能在练习中构建一个语言模型,并用它来生成莎士比亚文风的文本或其他类型文本。
在这里插入图片描述
所以什么是语言模型呢?比如你在做一个语音识别系统,你听到一个句子,“the apple and pear(pair) salad was delicious.”,所以我究竟说了什么?我说的是 “the apple and pair salad”,还是“the apple and pear salad”?(pear和pair是近音词)。你可能觉得我说的应该更像第二种,事实上,这就是一个好的语音识别系统要帮助输出的东西,即使这两句话听起来是如此相似。而让语音识别系统去选择第二个句子的方法就是使用一个语言模型,他能计算出这两句话各自的可能性

举个例子,一个语音识别模型可能算出第一句话的概率是 P ( T h e   a p p l e   a n d   p a i r   s a l a d ) = 3.2 ∗ 1 0 − 13 P(The\ apple\ and\ pair\ salad)=3.2*10^{-13} P(The apple and pair salad)=3.21013,而第二句话的概率是 P ( T h e   a p p l e   a n d   p e a r   s a l a d ) = 5.7 ∗ 1 0 − 10 P(The\ apple\ and\ pear\ salad)=5.7*10^{-10} P(The apple and pear salad)=5.71010,比较这两个概率值,显然我说的话更像是第二种,因为第二句话的概率比第一句高出1000倍以上,这就是为什么语音识别系统能够在这两句话中作出选择。

所以语言模型所做的就是,它会告诉你某个特定的句子它出现的概率是多少,根据我所说的这个概率,假设你随机拿起一张报纸,打开任意邮件,或者任意网页或者听某人说下一句话,并且这个人是你的朋友,这个你即将从世界上的某个地方得到的句子会是某个特定句子的概率是多少,例如“the apple and pear salad”。它是两种系统的基本组成部分,一个刚才所说的语音识别系统,还有机器翻译系统,它要能正确输出最接近的句子。而语言模型做的最基本工作就是输入一个句子,准确地说是一个文本序列, y < 1 > , y < 2 > y^{<1>},y^{<2>} y<1>y<2> 一直到 y < T y > y^{<T_y>} y<Ty>对于语言模型来说,用 y y y 来表示这些序列比用来 x x x 表示要更好,然后语言模型会估计某个句子序列中各个单词出现的可能性

那么如何建立一个语言模型呢?为了使用RNN建立出这样的模型,你首先需要一个训练集,包含一个很大的英文文本语料库(corpus)或者其它的语言,你想用于构建模型的语言的语料库。语料库是自然语言处理的一个专有名词,意思就是很长的或者说数量众多的英文句子组成的文本。
在这里插入图片描述
假如说,你在训练集中得到这么一句话,“Cats average 15 hours of sleep a day.”(猫一天睡15小时),你要做的第一件事就是将这个句子标记化,意思就是像之前视频中一样,建立一个字典,然后将每个单词都转换成对应的one-hot向量,也就是字典中的索引。可能还有一件事就是你要定义句子的结尾,一般的做法就是增加一个额外的标记,叫做EOS(上图编号1所示),它表示句子的结尾,这样能够帮助你搞清楚一个句子什么时候结束,我们之后会详细讨论这个。EOS标记可以被附加到训练集中每一个句子的结尾,如果你想要你的模型能够准确识别句子结尾的话。在本周的练习中我们不需要使用这个EOS标记,不过在某些应用中你可能会用到它,不过稍后就能见到它的用处。于是在本例中我们,如果你加了EOS标记,这句话就会有9个输入,有 y < 1 > , y < 2 > y^{<1>},y^{<2>} y<1>y<2>一直到 y < 9 > y^{<9>} y<9>。在标记化的过程中,你可以自行决定要不要把标点符号看成标记,在本例中,我们忽略了标点符号,所以我们只把day看成标志,不包括后面的句号,如果你想把句号或者其他符号也当作标志,那么你可以将句号也加入你的字典中。

现在还有一个问题如果你的训练集中有一些词并不在你的字典里,比如说你的字典有10,000个词,10,000个最常用的英语单词。现在这个句,“The Egyptian Mau is a bread of cat.”其中有一个词Mau,它可能并不是预先的那10,000个最常用的单词,在这种情况下,你可以把Mau替换成一个叫做UNK的代表未知词的标志,我们只针对UNK建立概率模型,而不是针对这个具体的词Mau

完成标识化的过程后,这意味着输入的句子都映射到了各个标志上,或者说字典中的各个词上。

下一步我们要构建一个RNN来构建这些序列的概率模型。在下一张幻灯片中会看到的一件事就是最后你会将 x < t > x^{<t>} x<t>设为 y < t − 1 > y^{<t-1>} y<t1>
在这里插入图片描述
现在我们来建立RNN模型,我们继续使用“Cats average 15 hours of sleep a day.”这个句子来作为我们的运行样例,我将会画出一个RNN结构。在第1个时间步,你要计算激活项 a < 1 > a^{<1>} a<1>,它是以 x < 1 > x^{<1>} x<1> 作为输入的函数, x < 1 > x^{<1>} x<1> 会被设为全为0的集合,也就是0向量。在之前的 a < 0 > a^{<0>} a<0> 按照惯例也设为0向量,于是 a < 1 > a^{<1>} a<1> 要做的就是它会通过softmax进行一些预测来计算出第一个词可能会是什么,其结果就是 y ^ < 1 > \hat{y}^{<1>} y^<1>(上图编号1所示),这一步其实就是通过一个softmax层来预测字典中的任意单词会是第一个词的概率,比如说第一个词是 a a a 的概率有多少,第一个词是Aaron的概率有多少,第一个词是cats的概率又有多少,就这样一直到Zulu是第一个词的概率是多少,还有第一个词是UNK(未知词)的概率有多少,还有第一个词是句子结尾标志的概率有多少,表示不必阅读。所以 y ^ < 1 > \hat{y}^{<1>} y^<1> 的输出是softmax的计算结果,它只是预测第一个词的概率,而不去管结果是什么。在我们的例子中,最终会得到单词Cats。所以softmax层输出10,000种结果,因为你的字典中有10,000个词,或者会有10,002个结果,因为你可能加上了未知词,还有句子结尾这两个额外的标志。

然后RNN进入下个时间步,在下一时间步中,仍然使用激活项 a < 1 > a^{<1>} a<1>在这步要做的是计算出第二个词会是什么。现在我们依然传给它正确的第一个词,我们会告诉它第一个词就是Cats,也就是 y ^ < 1 > \hat{y}^{<1>} y^<1> ,告诉它第一个词就是Cats,这就是为什么 y < 1 > = x < 2 > y^{<1>}=x^{<2>} y<1>=x<2>(上图编号2所示)。然后在第二个时间步中,输出结果同样经过softmax层进行预测,RNN的职责就是预测这些词的概率(上图编号3所示),而不会去管结果是什么,可能是b或者arron,可能是Cats或者Zulu或者UNK(未知词)或者EOS或者其他词,它只会考虑之前得到的词。所以在这种情况下,我猜正确答案会是average,因为句子确实就是Cats average开头的。

然后再进行RNN的下个时间步,现在要计算 a < 3 > a^{<3>} a<3> 。为了预测第三个词,也就是15,我们现在给它之前两个词,告诉它Cats average是句子的前两个词,所以这是下一个输入, x < 3 > = y < 2 > x^{<3>}=y^{<2>} x<3>=y<2> ,输入average以后,现在要计算出序列中下一个词是什么,或者说计算出字典中每一个词的概率(上图编号4所示),通过之前得到的Cats和average,在这种情况下,正确结果会是15,以此类推。

一直到最后,没猜错的话,你会停在第9个时间步,然后把 x < 9 > x^{<9>} x<9> 也就是 y < 8 > y^{<8>} y<8> 传给它(上图编号5所示),也就是单词day,这里是 a < 9 > a^{<9>} a<9>,它会输出 y < 9 > y^{<9>} y<9>,最后的得到结果会是EOS标志,在这一步中,通过前面这些得到的单词,不管它们是什么,我们希望能预测出EOS句子结尾标志的概率会很高(上图编号6所示)。

所以RNN中的每一步都会考虑前面得到的单词,比如给它前3个单词(上图编号7所示),让它给出下个词的分布,这就是RNN如何学习从左往右地每次预测一个词

接下来为了训练这个网络,我们要定义代价函数。于是,在某个时间步 t t t ,如果真正的词是 y < t > y^{<t>} y<t>,而神经网络的softmax层预测结果值是 y < t > y^{<t>} y<t>,那么这(上图编号8所示)就是softmax损失函数, L ( y ^ < t > , y < t > ) = − ∑ i y i < t > log ⁡ y ^ i < t > L(\hat{y}^{<t>},y^{<t>})=-\sum_{i}y_i^{<t>}\log\hat{y}_i^{<t>} L(y^<t>,y<t>)=iyi<t>logy^i<t>。而总体损失函数(上图编号9所示) L = ∑ t L < t > ( y ^ < t > , y < t > ) L=\sum_tL^{<t>}(\hat{y}^{<t>},y^{<t>}) L=tL<t>(y^<t>,y<t>),也就是把所有单个预测的损失函数都相加起来。
在这里插入图片描述
如果你用很大的训练集来训练这个RNN,你就可以通过开头一系列单词像是Cars average 15或者Cars average 15 hours of来预测之后单词的概率。现在有一个新句子,它是 y < 1 > , y < 2 > , y < 3 > y^{<1>},y^{<2>},y^{<3>} y<1>y<2>y<3>,为了简单起见,它只包含3个词(如上图所示),现在要计算出整个句子中各个单词的概率,方法就是第一个softmax层会告诉你 y < 1 > y^{<1>} y<1>的概率(上图编号1所示),这也是第一个输出,然后第二个softmax层会告诉你在考虑 y < 1 > y^{<1>} y<1> 的情况下 y < 2 > y^{<2>} y<2> 的概率(上图编号2所示),然后第三个softmax层告诉你在考虑 y < 1 > y^{<1>} y<1> y < 2 > y^{<2>} y<2> 的情况下 y < 3 > y^{<3>} y<3> 的概率(上图编号3所示),把这三个概率相乘,最后得到这个含3个词的整个句子的概率。

这就是用RNN训练一个语言模型的基础结构,可能我说的这些东西听起来有些抽象,不过别担心,你可以在编程练习中亲自实现这些东西。下一节课用语言模型做的一件最有趣的事就是从模型中进行采样。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值