练习总共包括三级,char/word/picture
第一部分:
import numpy as np
from keras.models import Sequential
from keras.layers import Dense #dense指普通的神经网络
from keras.layers import Dropout
from keras.layers import LSTM
from keras.callbacks import ModelCheckpoint
from keras.utils import np_utils
'''
简单的文本预测:给了前置字母以后,下一个字母
'''
#读入文本
raw_text = open('G:/KNNtest/RNN/How to Live a Holy Life.txt',encoding='utf-8').read()
raw_text = raw_text.lower()
#以每个字母为层级,字母总共才26个,所以可以很方便的用One-Hot来编码出所有的字母
chars = sorted(list(set(raw_text)))
char_to_int = dict((c,i) for i,c in enumerate(chars))
int_to_char = dict((i,c) for i,c in enumerate(chars))
#构造训练测试集,x是前置字母,y是后一个字母
seq_length = 100
x = []
y = []
for i in range(0 ,len (raw_text )- seq_length):
given = raw_text [i :i + seq_length]
predict = raw_text [i + seq_length]
x.append([char_to_int[char] for char in given])
y.append(char_to_int[predict])
'''
以上表达方式,类似就是一个词袋,或者说 index。
接下来我们做两件事:
我们已经有了一个input的数字表达(index),我们要把它变成LSTM需要的数组格式: [样本数,时间步伐,特征]
第二,对于output,我们在Word2Vec里学过,用one-hot做output的预测可以给我们更好的效果,相对于直接预测一个准确的y数值的话。
'''
n_patterns = len(x) #样本数
n_vocab = len(chars)
# 把x变成LSTM需要的样子,时间步伐:seq_length,1代表1维。LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
x = np.reshape(x, (n_patterns, seq_length, 1))
# 简单normal到0-1之间
x = x / float(n_vocab)
# output变成one-hot
y = np_utils.to_categorical(y)
'''
模型构造
'''
model = Sequential()
model.add(LSTM(128, input_shape=(x.shape[1], x.shape[2])))
model.add(Dropout(0.2))
model.add(Dense(y.shape[1],activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adam')
model.fit(x,y,nb_epoch=10,batch_size=32) #batch_size为批尺寸
'''
跑模型
'''
def predict_next(input_array):
x = np.reshape(input_array,(1,se