利用Seq2seq框架进行小说文本生成

问题描述

基于Seq2seq模型来实现文本生成的模型,输入可以为一段已知的金庸小说段落,来生成新的段落并做分析。

实验原理

Seq2Seq

Seq2Seq模型是输出的长度不确定时采用的模型,这种情况一般是在机器翻译的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了。如下图所,输入的中文长度为4,输出的英文长度为2。

在网络结构中,输入一个中文序列,然后输出它对应的中文翻译,输出的部分的结果预测后面,根据上面的例子,也就是先输出“machine”,将"machine"作为下一次的输入,接着输出"learning",这样就能输出任意长的序列。

机器翻译、人机对话、聊天机器人等等,这些都是应用在当今社会都或多或少的运用到了我们这里所说的Seq2Seq。

Seq2Seq结构

seq2seq属于encoder-decoder结构的一种,这里看看常见的encoder-decoder结构,基本思想就是利用两个RNN,一个RNN作为encoder,另一个RNN作为decoder。encoder负责将输入序列压缩成指定长度的向量,这个向量就可以看成是这个序列的语义,这个过程称为编码,如下图,获取语义向量最简单的方式就是直接将最后一个输入的隐状态作为语义向量C。也可以对最后一个隐含状态做一个变换得到语义向量,还可以将输入序列的所有隐含状态做一个变换得到语义变量。

RNN网络
首先将源语句输入至encoder编码为一个向量,我们称为上下文向量,它可以视为整个输入句子的抽象表示。然后,该向量由第二个LSTM解码,该LSTM通过一次生成一个单词来学习输出目标语句。下面给出文本翻译的例子。
文本翻译过程
源语句被输入至embedding层(黄色),然后被输入编码器(绿色),我们还分别将序列的开始()和序列的结束()标记附加到句子的开始和结尾,sos为start of sentence,eos为end of sentence。在每一个时间步,我们输入给encoder当前的单词以及上一个时间步的隐藏状态h_t-1,encoder吐出新的h_t,这个tensor可以视为目前为止的句子的抽象表示。这个RNN可以表示为一个方程: ht=EncoderRNN(emb(xt),ht-1) 这里的RNN可以是LSTM或GRU或任何RNN的变体。在最后一个时间步,我们将h_T赋给z,作为decoder的输入。

在每个时间步,解码器RNN(蓝色)的输入是当前单词的嵌入,以及上一个时间步的隐藏状态,其中初始解码器隐藏状态就是上下文向量,即初始解码器隐藏状态是最终编码器隐藏状态。因此,方程为 s_t=DecoderRNN(emb(y_t,x_t-1) ,然后在每一个时间步,我们将s_t输入给线形层(紫色),得到y_t_hat,即 y_t_hat=f(s_t) ,而后用y_hat与y进行交叉熵计算,得到损失,并优化参数。

Encoder(编码器)

在前向计算中,我们传入源语句,并使用嵌入层将其转换为密集向量,然后应用dropout。 然后将这些嵌入传递到RNN。 当我们将整个序列传递给RNN时,它将为我们自动对整个序列进行隐藏状态的递归计算。请注意,我们没有将初始的隐藏状态或单元状态传递给RNN。

Decoder(解码器)

解码器执行解码的单个步骤,即,每个时间步输出单个token。 第一层将从上一时间步中接收到一个隐藏的单元格状态,并将其与当前嵌入的token一起通过LSTM馈送,以产生一个新的隐藏的单元格状态。 后续层将使用下一层的隐藏状态,以及其图层中先前的隐藏状态和单元格状态。

Decoder的参数与encoder类似,但要注意它们的hid_dim要相同,否则矩阵无法运算。

模型应用领域

首先作为为机器翻译问题为出发点提出来的seq2seq模型,机器翻译的准确率因为该模型的提出而有了较大的提升。

作为seq2seq模型研发团队,Google Brain团队在2014年的文章的应用案例中对LSTm的隐藏结点做了主成分分析,如下图所示,从图中可以看出,模型中的语境向量很明显包涵了输入序列的语言意义,后沟将不同次序所产的的不同意思的语句划分开,这对于提升机器翻译的准确率很有帮助。其次seq2seq模型因为突破了传统的固定大小输入问题框架,因而除了翻译场景,还被用于智能对话与问答的实现以及微博的自动回复,2015年华为团队,通过seq2seq为基础设计的模型实现了计算机对微博的自动回复,并通过模型间的对比得到了一系列有意思的结果。如下图,post为微博主发的文,其余四列为不同模型对该条微博做出的回复。
在这里插入图片描述

实验流程

首先进行判断文章是否是乱码

# ==============判断char是否是乱码===================
def is_uchar(uchar):
    """判断一个unicode是否是汉字"""
    if uchar >= u'\u4e00' and uchar<=u'\u9fa5':
            return True
    """判断一个unicode是否是数字"""
    if uchar >= u'\u0030' and uchar<=u'\u0039':
            return True
    """判断一个unicode是否是英文字母"""
    if (uchar >= u'\u0041' and uchar<=u'\u005a') or (uchar >= u'\u0061' and uchar<=u'\u007a'):
            return True
    if uchar in (',','。',':','?','“','”','!',';','、','《','》','——'):
            return True
    return False

接着进行模型搭建

# ====================================搭建模型===================================
class RNNModel():
    """docstring for RNNModel"""

    def __init__(self, BATCH_SIZE, HIDDEN_SIZE, HIDDEN_LAYERS, VOCAB_SIZE, learning_rate):
        super(RNNModel, self).__init__()
        self.BATCH_SIZE = BATCH_SIZE
        self.HIDDEN_SIZE = HIDDEN_SIZE
        self.HIDDEN_LAYERS = HIDDEN_LAYERS
        self.VOCAB_SIZE = VOCAB_SIZE

        # ======定义占位符======
        with tf.name_scope('input'):
            self.inputs = tf.placeholder(tf.int32, [BATCH_SIZE, None])
            self.targets = tf.placeholder(tf.int32, [BATCH_SIZE, None])
            self.keepprb = tf.placeholder(tf.float32)

        # ======定义词嵌入层======
        with tf.name_scope('embedding'):
            embedding = tf.get_variable('embedding', [VOCAB_SIZE, HIDDEN_SIZE])
            emb_input = tf.nn.embedding_lookup(embedding, self.inputs)
            emb_input = tf.nn.dropout(emb_input, self.keepprb)

        # ======搭建lstm结构=====
        with tf.name_scope('rnn'):
            lstm = tf.contrib.rnn.LSTMCell(HIDDEN_SIZE, state_is_tuple=True)
            lstm = tf.contrib.rnn.DropoutWrapper(lstm, output_keep_prob=self.keepprb)
            cell = tf.contrib.rnn.MultiRNNCell([lstm] * HIDDEN_LAYERS)
            self.initial_state = cell.zero_state(BATCH_SIZE, tf.float32)
            outputs, self.final_state = tf.nn.dynamic_rnn(cell, emb_input, initial_state=self.initial_state)

        # =====重新reshape输出=====
        with tf.name_scope('output_layer'):
            outputs = tf.reshape(tf.concat(outputs, 1), [-1, HIDDEN_SIZE])
            w = tf.get_variable('outputs_weight', [HIDDEN_SIZE, VOCAB_SIZE])
            b = tf.get_variable('outputs_bias', [VOCAB_SIZE])
            logits = tf.matmul(outputs, w) + b

        # ======计算损失=======
        with tf.name_scope('loss'):
            self.loss = tf.contrib.legacy_seq2seq.sequence_loss_by_example([logits], [tf.reshape(self.targets, [-1])],
                                                                           [tf.ones([BATCH_SIZE * TIME_STEPS],
                                                                                    dtype=tf.float32)])
            self.cost = tf.reduce_sum(self.loss) / BATCH_SIZE

        # =============优化算法==============
        with tf.name_scope('opt'):
            # =============学习率衰减==============
            global_step = tf.Variable(0)
            learning_rate = tf.train.exponential_decay(learning_rate, global_step, BATCH_NUMS, 0.99, staircase=True)

            # =======通过clip_by_global_norm()控制梯度大小======
            trainable_variables = tf.trainable_variables()
            grads, _ = tf.clip_by_global_norm(tf.gradients(self.cost, trainable_variables), MAX_GRAD_NORM)
            self.opt = tf.train.AdamOptimizer(learning_rate).apply_gradients(zip(grads, trainable_variables))

        # ==============预测输出=============
        with tf.name_scope('predict'):
            self.predict = tf.argmax(logits, 1)

载入训练集,本实验采用白马啸西风为例

    # ========读取原始数据========
    with open('./data/白马啸西风.txt', 'r', encoding='utf-8') as f:
        data = f.readlines()
    print(data[0])

    import re

    # 生成一个正则,负责找'()'包含的内容
    pattern = re.compile(r'\(.*\)')
    # 将其替换为空
    data = [pattern.sub('', lines) for lines in data]
    # 将.....替换为句号
    data = [line.replace('……', '。') for line in data if len(line) > 1]
    print(data)
    # 将每行的list合成一个长字符串
    data = ''.join(data)
    data = [char for char in data if is_uchar(char)]
    data = ''.join(data)
    print(data[:100])

    # =====生成字典=====
    vocab = set(data)
    id2char = list(vocab)
    char2id = {c: i for i, c in enumerate(vocab)}

    print('字典长度:', len(vocab))
    import jieba

    word_data = list(jieba.cut(data))

接着生成字典

    # =====生成字典=====
    word_vocab = set(word_data)
    id2word = list(word_vocab)
    word2id = {c: i for i, c in enumerate(vocab)}

    print(word_data[:100])
    print(id2word[:100])
    print(len(vocab))

    import numpy as np

    # =====转换数据为数字格式======
    numdata = [char2id[char] for char in data]
    numdata = np.array(numdata)

    print('数字数据信息:\n', numdata[:100])
    print('\n文本数据信息:\n', ''.join([id2char[i] for i in numdata[:100]]))

    print(len(data))
    # 打印输出数据
    data_batch = data_generator(numdata, 2, 5)
    x, y = next(data_batch)
    print('input data:', x[0], '\noutput data:', y[0])

训练参数定义如下

    # =======预定义模型参数========
    VOCAB_SIZE = len(vocab)
    EPOCHS = 1000
    BATCH_SIZE = 8
    TIME_STEPS = 100
    BATCH_NUMS = len(numdata) // (BATCH_SIZE * TIME_STEPS)
    HIDDEN_SIZE = 512
    HIDDEN_LAYERS = 6
    MAX_GRAD_NORM = 1
    learning_rate = 0.05

   # ===========模型训练===========
    model = RNNModel(BATCH_SIZE, HIDDEN_SIZE, HIDDEN_LAYERS, VOCAB_SIZE, learning_rate)
    print(model)

    # 保存模型
    saver = tf.train.Saver()
    with tf.Session() as sess:
        writer = tf.summary.FileWriter('logs/tensorboard', tf.get_default_graph())

        sess.run(tf.global_variables_initializer())
        for k in range(EPOCHS):
            state = sess.run(model.initial_state)
            train_data = data_generator(numdata, BATCH_SIZE, TIME_STEPS)
            total_loss = 0.
            for i in range(BATCH_NUMS):
                xs, ys = next(train_data)
                feed = {model.inputs: xs, model.targets: ys, model.keepprb: 0.8, model.initial_state: state}
                costs, state, _ = sess.run([model.cost, model.final_state, model.opt], feed_dict=feed)
                total_loss += costs
                if (i + 1) % 50 == 0:
                    print('epochs:', k + 1, 'iter:', i + 1, 'cost:', total_loss / i + 1)

        saver.save(sess, './checkpoints/lstm.ckpt')

    writer.close()

最后进行模型测试

    # ============模型测试============
    tf.reset_default_graph()
    evalmodel = RNNModel(1, HIDDEN_SIZE, HIDDEN_LAYERS, VOCAB_SIZE, learning_rate)
    # 加载模型
    T=[]
    saver = tf.train.Saver()

    with tf.Session() as sess:
        saver.restore(sess, './checkpoints/lstm.ckpt')
        new_state = sess.run(evalmodel.initial_state)
        with open('./data/白马啸西风_target.txt', 'r', encoding='utf-8') as f:
            for n in f:
                n = n.replace('\n', "")
                t = char2id[n]
                T.append(t)
        print(T)
        x= np.array([T])
        samples = []
        for i in range(100):
            feed = {evalmodel.inputs: x, evalmodel.keepprb: 1., evalmodel.initial_state: new_state}
            c, new_state = sess.run([evalmodel.predict, evalmodel.final_state], feed_dict=feed)
            for j in range(len(T)):
                x[0][j] = c[0]
            # x[0][0] = c[0]
            samples.append(c[0])
        print(x)
        print(len(c))
        print(samples)
        print('test:', ''.join([id2char[index] for index in samples]))

实验结果

input data: [1413 1026 974 788 217]
output data: [1026 974 788 217 1088]

输入的数据是白马啸西风中的段落:
他跨下的枣红马奔驰了数十里地,早已筋疲力尽,在主人没命价的鞭打催踢之下,逼得气也喘不过来了,这时嘴边已全是白沫,猛地里前腿一软,跪倒在地。

输出的结果是:
丁计是的在哭衣,误了珠普普戈豪你人截下的汉啸啸,江的一。迸厚人的侠到她这。蒙珍冻扑,妈堆碍抽病洞项隐胜咳瘦蛋将作侠戈匀娜戈遭遭戈古藤灌灌灌兵识思,是兵珍汉戈你是恼

总结

通过循环输入文本学习小说的语法及写作风格,并生成了一些文本,虽然时间和算力限制,没有对模型进行很好的改进和调节,但是对LSTM以及Seq2Seq模型的训练和测试过程有了一定的体会,也对文本生成的人物有了一定的了解。在实验中,我也体会到复杂的模型并不一定带来更好的效果,通过一些采样方法或数据处理手段往往可以很直观的提升文本生成的效果。
最后的实验结果还是有点不尽人意,还需要继续调整。

文本生成学习(一)教你用seq2seq训练一个chatbotFork
自然语言处理之seq2seq模型
NLP之Seq2Seq
利用LSTM生成莫言小说

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
在一个遥远的星系中,有一个名叫“武林”的星球,这个星球上的文化和社会都是建立在武功之上的。 传说中,武林星球上最神秘的地方就是“太虚幻境”,那里有着无数的传说和谜团。有人说,在太虚幻境中,可以掌握宇宙能量,获得永生不死之身;也有人说,在那里可以获得惊人的武功,瞬间掌控整个武林星球。 一个年轻的武林弟子,名叫杨过,一直在寻找进入太虚幻境的方法。经过数年的苦苦探索,他终于找到了一条入境之路。 在进入太虚幻境的过程中,杨过发现了自己身体中潜藏的一种神秘能量,这种能量可以操纵宇宙中的力量,使他具有了超越常人的能力。而在太虚幻境中,他遇到了一些神秘的异族人,他们来自其他星系,拥有惊人的科技和武功。 杨过很快就成为了异族人中的一员,他学会了很多前所未有的武技和科技。但是,在与其他星系的势力斗争的过程中,杨过也意识到了自己和武林星球的文化和信仰之间的冲突。 最终,杨过回到了武林星球,他将自己在太虚幻境中学到的知识和技能传授给了武林中的其他弟子。他还带回了一些科技设备,让武林星球的人们可以更好地发展自己的文化和科技。 然而,杨过也面临着来自其他星系的威胁,他不得不与其他强大的势力进行斗争,以保护自己的家园和文化。最终,他带领武林弟子,与其他星系的势力展开了一场激烈的战斗。 在这场战斗中,杨过展现了超越常人的武功和科技,最终战胜了其他星系的势力,保护了武林星球和他所信仰的文化。他的故事成为了武林中的传说,人们称之为“太虚传说”。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值