利用RNN(lstm)生成文本【转】

本文转载自:https://www.jianshu.com/p/1a4f7f5b05ae

致谢以及参考

最近在做序列化标注项目,试着理解rnn的设计结构以及tensorflow中的具体实现方法。在知乎中找到这篇文章,具有很大的帮助作用,感谢作者为分享知识做出的努力。

学习目标定位

我主要重点在于理解文中连接所提供的在github上的project代码,一句句理解数据的预处理过程以及rnn网络搭建过程(重点在于代码注释,代码改动很小,实用python3)。(进入下面环节之前,假设你已经阅读了知乎上的关于rnn知识讲解篇幅,project的readme文档)

数据预处理

  1. 理解模型大概需要的重要参数:/Char-RNN-TensorFlow-master/train.py
# encoding: utf-8

import tensorflow as tf
from model import CharRNN import os import codecs # 相比自带的open函数 读取写入进行自我转码 from read_utils import TextConverter, batch_generator FLAGS = tf.flags.FLAGS # 变量定义 以及 默认值 tf.flags.DEFINE_string('name', 'default', 'name of the model') tf.flags.DEFINE_integer('num_seqs', 100, 'number of seqs in one batch') # 一个 batch 可以组成num_seqs个输入信号序列 tf.flags.DEFINE_integer('num_steps', 100, 'length of one seq') # 一个输入信号序列的长度, rnn网络会更具输入进行自动调整 tf.flags.DEFINE_integer('lstm_size', 128, 'size of hidden state of lstm') # 隐藏层节点数量,即lstm 的 cell中state数量 tf.flags.DEFINE_integer('num_layers', 2, 'number of lstm layers') # rnn的深度 tf.flags.DEFINE_boolean('use_embedding', False, 'whether to use embedding') # 如果中文字符则需要一个word2vec, 字母字符直接采用onehot编码 tf.flags.DEFINE_integer('embedding_size', 128, 'size of embedding') # 使用word2vec的 中文字符的嵌入维度选取 tf.flags.DEFINE_float('learning_rate', 0.001, 'learning_rate') tf.flags.DEFINE_float('train_keep_prob', 0.5, 'dropout rate during training') tf.flags.DEFINE_string('input_file', '', 'utf8 encoded text file') # --input_file data/shakespeare.txt tf.flags.DEFINE_integer('max_steps', 100000, 'max steps to train') tf.flags.DEFINE_integer('save_every_n', 1000, 'save the model every n steps') tf.flags.DEFINE_integer('log_every_n', 10, 'log to the screen every n steps') # 不同于英文字符比较短几十个就能解决,中文字符比较多,word2vec层之前输入需要进行onehot编码,根据字符频数降序排列取前面的3500个编码 tf.flags.DEFINE_integer('max_vocab', 3500, 'max char number') 
  1. 理解main函数中数据预处理部分, 数据预处理主要采用TextConverter类
def main(_):
    model_path = os.path.join('model', FLAGS.name) print("模型保存位置(根据模型命名)", model_path) if os.path.exists(model_path) is False: os.makedirs(model_path) with codecs.open(FLAGS.input_file, encoding='utf-8') as f: print("建模训练数据来源:", FLAGS.input_file) text = f.read() converter = TextConverter(text, # string # 返回一个整理文本词典的类 FLAGS.max_vocab) print("构建该文本的字符集合数量(包含未登录词:):", converter.vocab_size) print("建模所用字符保存地址位置(list): ", os.path.join(model_path, 'converter.pkl')) # 用来建模词汇的 前max_vocab个 converter.save_to_file(os.path.join(model_path, 'converter.pkl')) arr = converter.text_to_arr(text) # batch生成函数:返回一个生成器 
  • TextConverter类:\Char-RNN-TensorFlow-master\read_utils.py
    比如 莎士比亚训练数据用vocab组成:{v} {'} {[} {t} {u} {R} {W} {x} {?} { } {F} {I} {G} {O} {E} {$} {y} {e} {:} {L} {s} {c} {g} {Y} {]} {h} {w} {-} {a} {S} {J} {q} {V} {3} {X} {p} {T} {!} {C} {n} {;} {r} {M} {j} {f} {U} {d} {Q} {K} {b} {m} {H} {Z} {o} {i} {P} {D} {.} {l} {&} {N} {z} {A} {,} {
    } {B} {k}
class TextConvert
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
课程导语:    人工智能可谓是现阶段最火的行业,在资本和技术协同支持下正在进入高速发展期。当今全球市值前五大公司都指向同一发展目标:人工智能。近几年,人工智能逐渐从理论科学落地到现实中,与生活越来越息息相关,相关的各种职位炙手可热,而深度学习更是人工智能无法绕开的重要一环。 从AlphaGo打败李世石开始,深度学习技术越来越引起社会各界的广泛关注。不只学术界,甚至在工业界也取得了重大突破和广泛应用。其中应用最广的研究领域就是图像处理和自然语言处理。而要入门深度学习,CNN和RNN作为最常用的两种神经网络是必学的。网上关于深度学习的资料很多,但大多知识点分散、内容不系统,或者以理论为主、代码实操少,造成学员学习成本高。本门课程将从最基础的神经元出发,对深度学习的基础知识进行全面讲解,帮助大家迅速成为人工智能领域的入门者,是进阶人工智能深层领域的基石。 讲师简介:赵辛,人工智能算法科学家。2019年福布斯科技榜U30,深圳市海外高层次人才(孔雀人才)。澳大利亚新南威尔士大学全奖博士,SCI收录其发表过的10篇国际期刊学术文章。曾任深圳市微埃智能科技有限公司联合创始人。CSDN人工智能机器学习、深度学习方向满分级精英讲师。授课风格逻辑严谨、条理清晰、循序渐进、循循善诱,化枯燥为如沐春风,所教学生人数过万。 课程设计: 本课程分为5大模块,19小节,共计540时长(约9小时): 第一部分,课程介绍、目标与内容概览。主要学习人工智能深度学习应用场景;熟悉深度学习主流技术;掌握使用keras解决深度学习主要问题(神经网络、卷积神经网络、循环神经网络),以及深度学习主要内容:神经网络、卷积神经网络、循环神经网络;案例简介。 第二部分,深度学习之多层感知器(MLP)。主要学习多层感知器(MLP);MLP实现非线性分类;深度学习实战准备;Python调用keras实现MLP。 MLP技术点实战案例:第三部分,深度学习之卷积神经网络(CNN)。主要学习卷积神经网络 ; CNN模型分析;主流CNN模型; Python调用keras实现CNN; CNN技术点实战案例:第四部分,深度学习之循环神经网络(RNN)。主要学习循环神经网络;RNN模型分析;Python调用keras实现RNN。 RNN技术点实战案例: 第五部分,综合提升。主要进行迁移学习;混合模型;实战准备+综合实战,以及最后进行课程内容总结。 混合模型技术点实战案例

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

嵌入式小庄老师

要是觉得不错,就给我点支持吧

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值