循环神经网络系列(六)基于LSTM的唐诗生成

本文深入解析LSTM如何应用于唐诗生成,包括思路、网络模型的训练和预测,以及数据预处理。通过LSTM进行特征提取,结合词向量,最终实现从单字预测到完整诗句的生成。
摘要由CSDN通过智能技术生成

1. 思路

这个示例在很多地方都出现过,对于学习理解LSTM的原理极有帮助,因此我们下面就来一步一步地弄清楚其中的奥秘所在!

对于循环神经网络来说,我们首先需要做的仍旧是找到一种将数据序列化的方法。当然,对于古诗词来说,每个字的出现顺序就是天然的一个序列,因此我们就可以直接按照这个序列来处理。并且一首古诗词可以看成是一个样本(为了叙述方便,我们下面仅以一首诗的第一句为例子),例如[[床前明月光],[小时不识月]]为两个样本。

1.1 网络训练模型

现在暂时假设我们的训练集中只有两个样本x=[[床前明月光],[小时不识月]],那么想想此时对应的标签应该是什么?回想一下,我们的目的是利用循环网络来写诗,也就是说当我们把模型训练好了之后,直接喂给模型第一个字,它就能写出一句(或一首)诗了;既然如此,那么我们的训练过程就应该是学习每首古诗中,所有字的一个出现顺序。所以,对于床前明月光这个样本来说,其对应的标签值就应该是前明月光光。由此可知,我们的网络模型就应该大致长这样:

接下来,为了能更清晰的叙述网络结构而不被其它因素影响,我们在这个小节中就直接用一个汉字来表示一个维度(实际中要将一个汉字转为n维的词向量)。此时,训练样本的维度就应该是shape=[2,5,1]。在这个示例中,我们采用了两层的LSTM网络外加一个softmax的全连接层,并且LSTM网络的输出维度output_size=32,于是我们就可以画出下面这个网络示意图:

从图中可以看到,第一步:我们是将shape = [2,5,1]的训练集喂给LSTM网络,然后从网络得到shape=[2,5,32]的输出;第二步:我们将LSTM网络得到的输出reshape成[10,32]的矩阵;第三步:再将上一步的结果喂给最后一个softmax全连接网络,这样就能完成对于每个字的分类任务了。

对于第二步为什么要reshape然后喂给第三部的全连接网络,我们可以这样想:假如是一个样本的话,那么LSTM的输出大小就为[1,5,32],也就是说第一步喂进去的每一个字通过LSTM这个网络处理之后都变成一个[1,32]的向量化表示方式,只是第2个字保留了第一个字里面的信息,第3个字保留了跟前面的信息等等。这也就有点类似于卷积网络中先用卷积层对图片进行特征提取,然后再做一个分类处理。于是乎我们就可以发现,其实LSTM网络的本质也是在做一个特征提取的工作,区别于卷积网络的就是:卷积网络提取的是基于空间上的特征,而循环网络提取的是基于时间序列上的特征。至于最后以层,该分类就分类处理,该回归就回归处理。

1.2 网络预测模型

当网络经过训练完成后就可以拿来预测了,只不过在预测的时候我们喂给网络的就只是一个字了;然后用当前预测得到的字作为下一个字;如下图所示:

1.3 数据处理

经过上面的讲解,我们大致明白了基于LSTM网络古诗生成原理:先用LSTM做特征提取,然后分类。既然最后我们要完成的是一个分类任务,那么我们不得不做的就是将所有的类别给整理处理,也就是所有的数据集中一共包含了多少个不同的字,因为我们来做的就是根据上一个字预测下一个字。

同时由于我们处理的是文本信息,因此我们需要将每个字都采用词(字)向量的形式表示,由于没有现成的词向量,所有我们要再LSTM的前面假加入一个词嵌入层。

最后,为了避免最终的分类数过于庞大,可以选择去掉出现频率较小的字,比如可以去掉只出现过一次的字。

总结一下数据预处理的步骤:

  • 1.统计出所有不同的字,并做成一个字典;
  • 2.对于每首诗,将每个字、标点都转换为字典中对应的编号,构成X;
  • 3.将X整体左移动以为构成Y

2. 代码讲解

在此首先感谢Github上的jinfaganghzy46这两位作者,因为整体代码都是参照的他们的,加了一点点自己的元素。

2.1 数据预处理

先来看看原始的数据集长什么样:

首春:寒随穷律变,春逐鸟声开。初风飘带柳,晚雪间花梅。碧林青旧竹,绿沼翠新苔。芝田初雁去,绮树巧莺来。
初晴落景:晚霞聊自怡,初晴弥可喜。日晃百花色,风动千林翠。池鱼跃不同,园鸟声还异。寄言博通者,知予物外志。

而我们需要得到的是类似于这样的:

X:
[[1,4,6,3,2,5,3,0,0,0],
 [5,6,4,3,9,1,0,0,0,0]]
 
Y:
[[4,6,3,2,5,3,0,0,0,0],
 [6,4,3,9,1,0,0,0,0,0]]

其中的0表示,我设定了一首诗的最大长度,如果不足就补0(因为每首诗的长度不一样);而其它的数字则表示诗中每个字以及标点在字典中的索引。同时,为了后面的生成诗时候的转换,我们还需要得到字典。

而这只需要tensorflow中的几行代码就能搞定(友情提示:在统计词频使用Counter()这个类时,对于同一词频的词在字典中的排列顺序window平台和linux平台的处理结果不一样)。以下只是部分代码,完整参见源码中的data_helper.py模块

    vocab_processor = VocabularyProcessor(max_document_length
好的,这个问题可以用循环神经网络(RNN)来解决。RNN是一种能够记忆先前状态的神经网络,常用于处理序列数据,比如语言模型和翻译模型。 在这个问题中,我们可以使用RNN来生成唐诗。具体步骤如下: 1. 准备数据集 我们需要准备一个包含大量唐诗的数据集,可以从网上爬取或者使用现有的数据集,比如[Tang Poetry](https://github.com/chinese-poetry/chinese-poetry)。将每首唐诗转换成一个长字符串。 2. 数据预处理 对于每首唐诗,我们需要将其分成多个长度固定的段落,每个段落包含固定个数的字符。这个过程称为分割。同时,我们还需要将每个字符映射成一个数字,方便输入到神经网络中。 3. 构建模型 我们可以使用LSTM或GRU等循环神经网络生成唐诗。输入是前面的字符序列,输出是下一个字符的概率分布。可以使用softmax函数将输出转换为概率分布。 4. 训练模型 使用数据集训练模型。可以使用交叉熵损失函数和Adam优化器。 5. 预测 给定一个起始字符串,使用模型生成下一个字符的概率分布。可以使用采样的方式得到下一个字符,即根据概率分布随机选择一个字符。然后将新字符添加到原始字符串的末尾,再次生成下一个字符,直到达到指定的长度。 这样就可以使用循环神经网络生成唐诗了。需要注意的是,生成唐诗可能不够优美,需要不断调试和优化模型。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值