深度学习基础
神经网络入门
电影评论分类:二分类问题
- 二分类问题可能是应用最广泛的机器学习问题。在这个例子中,将根据电影评论的文字内容将其划分为正面或负面。
IMDB 数据集
-
IMDB 数据集,它包含来自互联网电影数据库(IMDB)的50000条严重两极分化的评论。数据集被分为用于训练的25000条评论与用于测试的25000条评论,训练集和测试集都包含50%的正面评论和50%的负面评论。
-
将训练集和测试集分开是因为你不应该将训练机器学习模型的同一批数据再用于测试模型。
- 模型在训练数据上的表现很好,并不意味着它在前所未见的数据上也会表现得很好,而且你真正关心的是模型在新数据上的性能(因为你已经知道了训练数据对应的标签,显然不再需要模型来进行预测)。
- 例如,你的模型最终可能只是记住了训练样本和目标值之间的映射关系,但这对在前所未见的数据上进行预测毫无用处。
-
与 MNIST 数据集一样,IMDB 数据集也内置于 Keras 库。它已经过预处理:评论(单词序列)已经被转换为整数序列,其中每个整数代表字典中的某个单词。
-
下列代码将会加载 IMDB 数据集(第一次运行时会下载大约 80MB 的数据):
# 加载 IMDB 数据集 import keras from keras.datasets import imdb (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
-
参数 num_words=10000 的意思是仅保留训练数据中前 10 000 个最常出现的单词。
-
低频单词将被舍弃。这样得到的向量数据不会太大,便于处理。
-
train_data 和 test_data 这两个变量都是评论组成的列表,每条评论又是单词索引组成的列表(表示一系列单词)。
-
train_labels 和 test_labels 都是0和1组成的列表,其中0代表负面(negative),1代表正面(positive)。
>>> train_data[0] [1, 14, 22, 16, ... 178, 32] >>> train_labels[0] 1
-
由于限定为前10000个最常见的单词,单词索引都不会超过10000。
>>> max([max(sequence) for sequence in train_data]) 9999
-
下面这段代码很有意思,你可以将某条评论迅速解码为英文单词。
# word_index 是一个将单词映射为整数索引的字典 word_index = imdb.get_word_index() # 键值颠倒,将整数索引映射为单词 reverse_word_index = dict([(value, key) for (key, value) in word_index.items()]) '''将评论解码。注意,索引减去了3,因为0、1、2是为“padding”(填充)、 “start of sequence”(序列开始)、“unknown”(未知词)分别保留的索引''' decoded_review = ' '.join([reverse_word_index.get(i - 3, '?') for i in train_data[0]])
-
准备数据
-
你不能将整数序列直接输入神经网络。你需要将列表转换为张量。
-
转换方法有以下两种:
- 填充列表,使其具有相同的长度,再将列表转换成形状为 (samples, word_indices) 的整数张量,然后网络第一层使