(二)循环神经网络RNN实战情感分类

介绍

循环神经网络RNN实战情感分类:
在这里插入图片描述
下面我们开始用tensorflow中的keras来搭建一个简单的RNN模型,数据用的是tensorflow.keras中自带的情感文本的数据集。

代码

import os
import tensorflow as tf
import numpy as np
from tensorflow import keras
from tensorflow.keras import layers

tf.random.set_seed(22)
np.random.seed(22)
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
assert tf.__version__.startswith('2.')

batchsz = 128

# the most frequest words
total_words = 10000  # 用到的通用的单词数量(超过部分,全部做相同标记)
max_review_len = 80  # 每个句子的长度(单词数)
embedding_len = 100  # 每个单词用100维度的向量表示
(x_train, y_train), (x_test, y_test) = keras.datasets.imdb.load_data(num_words=total_words)
# x_train:[b, 80]
# x_test: [b, 80]
x_train = keras.preprocessing.sequence.pad_sequences(x_train, maxlen=max_review_len)
x_test = keras.preprocessing.sequence.pad_sequences(x_test, maxlen=max_review_len)

db_train = tf.data.Dataset.from_tensor_slices((x_train, y_train))
db_train = db_train.shuffle(1000).batch(batchsz, drop_remainder=True)  # dorp最后一个batch
db_test = tf.data.Dataset.from_tensor_slices((x_test, y_test))
db_test = db_test.batch(batchsz, drop_remainder=True)
print('x_train shape:', x_train.shape, tf.reduce_max(y_train), tf.reduce_min(y_train))
print('x_test shape:', x_test.shape)


class MyRNN(keras.Model):

    def __init__(self, units):
        super(MyRNN, self).__init__()

        # [b, 64]
        self.state0 = [tf.zeros([batchsz, units])]
        self.state1 = [tf.zeros([batchsz, units])]

        # transform text to embedding representation
        # [b, 80] => [b, 80, 100]
        self.embedding = layers.Embedding(total_words, embedding_len,
                                          input_length=max_review_len)

        # [b, 80, 100] , h_dim: 64
        # RNN: cell1 ,cell2, cell3
        # SimpleRNN
        self.rnn_cell0 = layers.SimpleRNNCell(units, dropout=0.5)
        self.rnn_cell1 = layers.SimpleRNNCell(units, dropout=0.5)

        # fc, [b, 80, 100] => [b, 64] => [b, 1]
        self.outlayer = layers.Dense(1)

    def call(self, inputs, training=None):
        """
        net(x) net(x, training=True) :train mode
        net(x, training=False): test
        :param inputs: [b, 80]
        :param training:
        :return:
        """
        # [b, 80]
        x = inputs
        # embedding: [b, 80] => [b, 80, 100]
        x = self.embedding(x)
        # rnn cell compute
        # [b, 80, 100] => [b, 64]
        state0 = self.state0
        state1 = self.state1
        for word in tf.unstack(x, axis=1):  # 在第一维度展开(展开每个单词)  word: [b, 100]
            # h1 = x*wxh+h0*whh
            # out0: [b, 64]
            out0, state0 = self.rnn_cell0(word, state0, training)
            # out1: [b, 64]
            out1, state1 = self.rnn_cell1(out0, state1, training)

        # out: [b, 64] => [b, 1]
        x = self.outlayer(out1)
        # p(y is pos|x)
        prob = tf.sigmoid(x)

        return prob


def main():
    units = 64
    epochs = 4

    model = MyRNN(units)
    model.compile(optimizer=keras.optimizers.Adam(0.001),
                  loss=tf.losses.BinaryCrossentropy(),
                  metrics=['accuracy'])
    model.fit(db_train, epochs=epochs, validation_data=db_test)

    model.evaluate(db_test)


if __name__ == '__main__':
    main()

TensorFlow RNN 实战可以涉及许多方面,包括文本生成、情感分析、机器翻译等任务。这里我为您提供一个简单的示例,展示如何使用 TensorFlow 构建一个基本的 RNN 模型来进行文本生成。 首先,您需要导入所需的库: ```python import tensorflow as tf from tensorflow.keras.layers import Dense, Embedding, SimpleRNN from tensorflow.keras.models import Sequential ``` 接下来,您可以定义模型的结构: ```python vocab_size = 10000 # 词汇表大小 embedding_dim = 256 # 嵌入维度 hidden_units = 1024 # RNN 隐藏单元数量 model = Sequential() model.add(Embedding(vocab_size, embedding_dim, input_length=100)) model.add(SimpleRNN(hidden_units, return_sequences=True)) model.add(Dense(vocab_size, activation='softmax')) ``` 在这个例子中,我们使用了一个 Embedding 层将输入序列中的每个单词映射为一个稠密向量。然后,我们使用一个 SimpleRNN 层来建立 RNN 模型,并设置 return_sequences=True 以便在每个时间步返回输出。最后,我们添加了一个全连接层作为输出层,使用 softmax 激活函数来生成预测的下一个单词。 接下来,您需要编译模型并定义损失函数和优化器: ```python model.compile(loss='sparse_categorical_crossentropy', optimizer='adam') ``` 在这个例子中,我们使用了稀疏分类交叉熵作为损失函数,并使用 Adam 优化器进行模型训练。 最后,您可以使用训练数据来拟合模型并进行文本生成: ```python model.fit(train_data, train_labels, epochs=10, batch_size=32) ``` 在这个例子中,train_data 是输入的训练数据,train_labels 是对应的标签。您可以根据实际情况调整训练数据和标签的格式。 这只是一个简单的 TensorFlow RNN 实战示例,您可以根据具体任务和数据的特点进行更复杂的模型设计和调整。希望对您有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

现实、狠残酷

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值