Python深度学习06——Keras循环神经网络实现文本分类

 参考书目:陈允杰.TensorFlow与Keras——Python深度学习应用实战.北京:中国水利水电出版社,2021

本系列基本不讲数学原理,只从代码角度去让读者们利用最简洁的Python代码实现深度学习方法。


接着上一节用循环神经网络做回归,本次使用循环神经网络处理文本数据,自然语言。实现分类问题,使用路透社数据集,做文本的情感分类。由于Keras自带该数据集,处理一下可以直接使用(如果想学怎么把纯文本变为数据矩阵,关注下一章的内容)


载入路透社数据集

from keras.datasets import reuters

# 载入 Reuters 数据集, 如果是第一次载入会自行下载数据集
top_words = 10000
(X_train, Y_train), (X_test, Y_test) = reuters.load_data(num_words=top_words)

# 形状
print("X_train.shape: ", X_train.shape)
print("Y_train.shape: ", Y_train.shape)
print("X_test.shape: ", X_test.shape)
print("Y_test.shape: ", Y_test.shape)

可以看到形状不是矩阵,因为还没处理。训练集8982条,测试集2246条。

打印其中一条看看

#显示 Numpy 阵列内容
print(X_train[0])
print(Y_train[0])   # 标签数据

 

 很多数字,每个数字都对应一个单词,这是单词索引,查看有多少单词

# 最大的单字索引值  
max_index = max(max(sequence) for sequence in X_train)
print("Max Index: ", max_index)

因为刚刚开始是设定的top_words = 10000,所以不超过1w个词。

建立解码字典,把索引变为单词

# 建立新闻的解码字典
word_index = reuters.get_word_index()
we_index = word_index["social"]
print("'social' index:", we_index)

 

 social这个词对应2300.

还可以翻转索引变回单词:

decode_word_map = dict([(value, key) for (key, value)in word_index.items()])
print(decode_word_map[we_index])

解码显示第一条新闻是什么

# 解码显示新闻内容  
decoded_indices = [decode_word_map.get(i-3, "?")for i in X_train[0]]
print(decoded_indices)

decoded_news = " ".join(decoded_indices)
print(decoded_news)

 下面将每条新闻预处理,变为张量

import numpy as np
from keras.preprocessing import sequence
from tensorflow.keras.utils import to_categorical

seed = 10
np.random.seed(seed)   # 指定乱数种子  

# 数据预处理
max_words = 200 
X_train = sequence.pad_sequences(X_train, maxlen=max_words)
X_test = sequence.pad_sequences(X_test, maxlen=max_words)

print("X_train.shape: ", X_train.shape)
print("X_test.shape: ", X_test.shape)

# One-hot编码
Y_train = to_categorical(Y_train, 46)
Y_test = to_categorical(Y_test, 46)

将X和y都变味数据矩阵,X为200维,y是46维(46分类问题)


MLP实现路透社新闻主题分类 

定义模型

from keras.models import Sequential
from keras.layers import Dense, Embedding, Dropout, Flatten

model = Sequential()
model.add(Embedding(top_words, 32, input_length=max_words))
model.add(Dropout(0.75))
model.add(Flatten())
model.add(Dense(64, activation="relu"))
model.add(Dropout(0.25))
model.add(Dense(64, activation="relu"))
model.add(Dropout(0.25))
model.add(Dense(46, activation="softmax"))
model.summary()   # 显示模型摘要资讯  

编译和训练:

# 编译模型
model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])
#训练模型
history = model.fit(X_train, Y_train, validation_split=0.2,epochs=12, batch_size=32, verbose=2)

 评估模型准确率

# 评估模型
loss, accuracy = model.evaluate(X_test, Y_test)
print("测试数据集的准确度 = {:.2f}".format(accuracy))

 

 画出损失图

# 显示训练和验证损失图表  
import matplotlib.pyplot as plt
loss = history.history["loss"]
epochs = range(1, len(loss)+1)
val_loss = history.history["val_loss"]
plt.plot(epochs, loss, "bo", label="Training Loss")
plt.plot(epochs, val_loss, "r", label="Validation Loss")
plt.title("Training and Validation Loss")
plt.xlabel("Epochs")
plt.ylabel("Loss")
plt.legend()
plt.show()

 画出准确率图

# 显示训练和验证准确度  
acc = history.history["accuracy"]
epochs = range(1, len(acc)+1)
val_acc = history.history["val_accuracy"]
plt.plot(epochs, acc, "b-", label="Training Acc")
plt.plot(epochs, val_acc, "r--", label="Validation Acc")
plt.title("Training and Validation Accuracy")
plt.xlabel("Epochs")
plt.ylabel("Accuracy")
plt.legend()
plt.show()

 


LSTM实现路透社新闻主题分类 

定义模型,(若是想用其他循环神经网络,RNN,GRU也是一样的,LSTM改成GRU就行)

from keras.layers import Embedding, Dropout, LSTM, Dense

#  定义模型
model = Sequential()
model.add(Embedding(top_words, 32, input_length=max_words))
model.add(Dropout(0.75))
model.add(LSTM(32, return_sequences=True))
model.add(LSTM(32))
model.add(Dropout(0.5))
model.add(Dense(46, activation="softmax"))
# 编译模型
model.compile(loss="categorical_crossentropy", optimizer="rmsprop", 
              metrics=["accuracy"])
model.summary()  # 显示模型摘要信息

 同样也是训练,评估

# 训练模型
history = model.fit(X_train, Y_train, validation_split=0.2, epochs=40, batch_size=32, verbose=2)

#评估模型
loss, accuracy = model.evaluate(X_test, Y_test)
print("测试数据集的准确度 = {:.2f}".format(accuracy))

画损失和准确率图

# 显示训练和验证损失图表 
import matplotlib.pyplot as plt
loss = history.history["loss"]
epochs = range(1, len(loss)+1)
val_loss = history.history["val_loss"]
plt.plot(epochs, loss, "bo", label="Training Loss")
plt.plot(epochs, val_loss, "r", label="Validation Loss")
plt.title("Training and Validation Loss")
plt.xlabel("Epochs")
plt.ylabel("Loss")
plt.legend()
plt.show()

#显示训练和验证准确度
acc = history.history["accuracy"]
epochs = range(1, len(acc)+1)
val_acc = history.history["val_accuracy"]
plt.plot(epochs, acc, "b-", label="Training Acc")
plt.plot(epochs, val_acc, "r--", label="Validation Acc")
plt.title("Training and Validation Accuracy")
plt.xlabel("Epochs")
plt.ylabel("Accuracy")
plt.legend()
plt.show()

 

 也可以使用MLP、CNN、LSTM堆叠等网络,不停调参试试,说不定准确率会更高。下一章会仔细介绍纯文本,就是文字,怎么变成可以运算的张量,然后将网络都组合起来复习一下。

 

  • 1
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Keras是一个基于Python深度学习库,可以用于构建各种类型的神经网络模型。它可以用于文本分类任务,本文将介绍使用Keras实现文本分类的过程。 首先,我们需要准备数据集。一个常用的文本分类数据集是IMDB电影评论数据集,其中包含了来自互联网电影数据库的50,000个电影评论,其中25,000个用于训练,25,000个用于测试。每个评论都被标记为正面或负面。 在Keras中,我们可以使用Tokenizer类将文本转换为数字序列,每个单词对应一个数字。我们还需要对文本进行预处理,包括去除标点符号、停用词、转换为小写等操作。 接下来,我们可以使用Keras的Sequential模型定义我们的神经网络模型。对于文本分类任务,我们通常使用嵌入层将数字序列转换为向量表示,并添加全局池化层、Dropout层和全连接层。我们可以根据需要添加多个隐藏层。 最后,我们需要编译模型并训练它。我们可以选择不同的优化器、损失函数和评估指标。在训练期间,我们可以使用验证集来监视模型的性能,并根据需要进行调整。 下面是一个使用Keras进行文本分类的示例代码: ```python from keras.datasets import imdb from keras.preprocessing.text import Tokenizer from keras.preprocessing.sequence import pad_sequences from keras.models import Sequential from keras.layers import Embedding, GlobalMaxPooling1D, Dropout, Dense # 加载数据集 (x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=10000) # 将文本转换为数字序列 tokenizer = Tokenizer(num_words=10000) x_train = tokenizer.sequences_to_matrix(x_train, mode='binary') x_test = tokenizer.sequences_to_matrix(x_test, mode='binary') # 填充序列 x_train = pad_sequences(x_train, maxlen=100) x_test = pad_sequences(x_test, maxlen=100) # 定义模型 model = Sequential() model.add(Embedding(input_dim=10000, output_dim=32, input_length=100)) model.add(GlobalMaxPooling1D()) model.add(Dropout(0.5)) model.add(Dense(1, activation='sigmoid')) # 编译模型 model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) # 训练模型 model.fit(x_train, y_train, validation_split=0.2, epochs=10, batch_size=128) # 评估模型 score = model.evaluate(x_test, y_test, batch_size=128) print('Test loss:', score[0]) print('Test accuracy:', score[1]) ``` 在这个示例中,我们使用了嵌入层将数字序列转换为向量表示,并添加了全局池化层、Dropout层和全连接层。我们使用了Adam优化器、二元交叉熵损失函数和精度评估指标。我们使用了20%的训练数据作为验证集,并在10个时期内训练模型。最后,我们评估了模型在测试集上的性能。 这只是一个简单的示例,你可以根据需要调整模型架构、优化器、损失函数和评估指标等。通过使用Keras,你可以很容易地构建和训练各种类型的神经网络模型,包括文本分类模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阡之尘埃

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值