NLP篇【02补】TensorFlow 代码实现负采样(coding)

一、前言

NLP篇【02】白话Word2vec原理以及层softmax、负采样的实现 文章中介绍了层softmax与负采样,有兴趣可以根据介绍,自己实现一下负采样或层softmax。当然,对于只想拿来直接使用的,可以看看这篇文章,直接利用TensorFlow 的api实现负采样,也是非常的简单。

二、TensorFlow 代码

api介绍:

tf.nn.sampled_softmax_loss(weights, # Shape (num_classes, dim)     - floatXX
                     biases,        # Shape (num_classes)          - floatXX 
                     labels,        # Shape (batch_size, num_true) - int64
                     inputs,        # Shape (batch_size, dim)      - floatXX  
                     num_sampled,   # - int
                     num_classes,   # - int
                     num_true=1,  
                     sampled_values=None,
                     remove_accidental_hits=True,
                     partition_strategy="mod",
                     name="sampled_softmax_loss")

具体代码: 

import tensorflow as tf

# Network Parameters
n_hidden_1 = 256  # 1st layer number of features
n_input = 784     # MNIST data input (img shape: 28*28)
n_classes = 10    # MNIST total classes (0-9 digits)

# Dependent & Independent Variable Placeholders
x = tf.placeholder("float", [None, n_input])
y = tf.placeholder("float", [None, n_classes]) #

# Weights and Biases
weights = {
    'h1': tf.Variable(tf.random_normal([n_input, n_hidden_1])),
    'out': tf.Variable(tf.random_normal([n_hidden_1, n_classes]))
}
biases = {
    'b1': tf.Variable(tf.random_normal([n_hidden_1])),
    'out': tf.Variable(tf.random_normal([n_classes]))
}

# Super simple model builder
def tiny_perceptron(x, weights, biases):
    layer_1 = tf.add(tf.matmul(x, weights['h1']), biases['b1'])
    out_layer = tf.nn.relu(layer_1)
    # out_layer = tf.matmul(layer_1, weights['out']) + biases['out']
    return out_layer  #(bt,dim)

# Create the model
pred = tiny_perceptron(x, weights, biases)

# Set up loss function inputs and inspect their shapes
w = tf.transpose(weights['out'])  #(num_class,dim)
b = biases['out']
labels = tf.reshape(tf.argmax(y, 1), [-1,1])
inputs = pred
num_sampled = 3
num_true = 1
num_classes = n_classes

print('Shapes\n------\nw:\t%s\nb:\t%s\nlabels:\t%s\ninputs:\t%s' % (w.shape, b.shape, labels.shape, inputs.shape))
# Shapes
# ------
# w:      (10, 256)  # Requires (num_classes, dim)     - CORRECT
# b:      (10,)      # Requires (num_classes)          - CORRECT
# labels: (?, 1)     # Requires (batch_size, num_true) - CORRECT
# inputs: (?, 256)    # Requires (batch_size, dim)     - CORRECT

loss_function = tf.reduce_mean(tf.nn.sampled_softmax_loss(
                     weights=w,         #(num_class,dim)
                     biases=b,
                     labels=labels,
                     inputs=inputs,     #(bt,dim)
                     num_sampled=num_sampled,
                     num_true=num_true,
                     num_classes=num_classes)
)

注意:这里的labels如果是one-hot类型编码,需要labels=tf.reshape(tf.argmax(labels_one_hot, 1), [-1,1])

示例:

import tensorflow as tf

a = tf.nn.sampled_softmax_loss(weights=tf.constant([[1, 2], [3, 4], [5, 6], [7, 8], [9, 10], [11, 12], [13, 14], [15, 16], [17, 18], [19, 20]]),
                               # [num_classes, dim] = [10, 2]
                               biases=tf.constant([0., 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9]),
                               # [num_classes] = [10]
                               labels=tf.constant([[2], [3], [5]]),
                               # [batch_size, num_true] = [3, 1]
                               inputs=tf.constant([[0.2, 0.1], [0.4, 0.1], [0.22, 0.12]]),
                               # [batch_size, dim] = [3, 2]
                               
                               num_sampled=3,
                               num_classes=10,
                               num_true = 1,
                               seed = 2020,
                               name = "sampled_softmax_loss"
                          )

结果

with tf.compat.v1.Session() as sess:
    print(sess.run(a))

# [0.37478584 0.2859666  0.0703702 ]

在源码的介绍中,train的方式和eval的方式是分开的:

if mode == "train":
    loss = tf.nn.sampled_softmax_loss(
        weights=weights,
        biases=biases,
        labels=labels,
        inputs=inputs,
        ...)

elif mode == "eval":
    logits = tf.matmul(inputs, tf.transpose(weights))
    logits = tf.nn.bias_add(logits, biases)
    labels_one_hot = tf.one_hot(labels, n_classes)
    loss = tf.nn.softmax_cross_entropy_with_logits(
        labels=labels_one_hot,
        logits=logits)

 train步骤中除了选择一批label作为负样本外,实现方式与eval中描述的一致。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
电影评论情感分析是自然语言处理中的一个经典问题,它的目标是对电影评论进行分类,判断评论者对电影的态度是正面的还是负面的。在这里,我们将使用TensorFlow实现情感分类的模型。 首先,我们需要准备一个数据集,可以使用IMDB数据集,该数据集包含了大约50,000个电影评论,其中一半是正面评论,另一半是负面评论。我们将使用TensorFlow的tf.keras API来加载数据集。 ```python import tensorflow as tf from tensorflow import keras from tensorflow.keras.datasets import imdb # 加载IMDB数据集 (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000) ``` 我们使用`num_words=10000`来限制数据集中最常用的10,000个单词。 接下来,我们需要将数据集转换为神经网络可以处理的格式。在这里,我们将使用一种称为“填充序列”的技术,即将所有评论填充到相同的长度,然后将它们转换为一个整数张量。 ```python # 将评论序列填充到相同的长度 train_data = keras.preprocessing.sequence.pad_sequences(train_data, maxlen=256) test_data = keras.preprocessing.sequence.pad_sequences(test_data, maxlen=256) ``` 现在,我们已经准备好了数据集,接下来我们将构建模型。在这里,我们将使用一种称为“嵌入层”的技术来将单词转换为密集向量,然后将这些向量输入到一个简单的全连接神经网络中进行分类。 ```python # 定义模型 model = keras.Sequential([ keras.layers.Embedding(10000, 16), keras.layers.GlobalAveragePooling1D(), keras.layers.Dense(16, activation='relu'), keras.layers.Dense(1, activation='sigmoid') ]) # 编译模型 model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) ``` 在这里,我们使用`Embedding`层来将单词转换为16维向量,然后使用`GlobalAveragePooling1D`层来对所有向量进行平均池化。接下来,我们使用两个全连接层来进行分类,最后一层使用sigmoid激活函数来输出一个0到1之间的数值,表示评论是正面的概率。 现在,我们可以使用训练集来训练模型。 ```python # 训练模型 history = model.fit(train_data, train_labels, validation_split=0.2, epochs=10, batch_size=128) ``` 在这里,我们使用了20%的训练数据作为验证集,进行了10次训练迭代,每次迭代使用128个样本。 最后,我们可以使用测试集来评估模型的性能。 ```python # 评估模型 test_loss, test_acc = model.evaluate(test_data, test_labels) print('Test accuracy:', test_acc) ``` 完整代码如下: ```python import tensorflow as tf from tensorflow import keras from tensorflow.keras.datasets import imdb # 加载IMDB数据集 (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000) # 将评论序列填充到相同的长度 train_data = keras.preprocessing.sequence.pad_sequences(train_data, maxlen=256) test_data = keras.preprocessing.sequence.pad_sequences(test_data, maxlen=256) # 定义模型 model = keras.Sequential([ keras.layers.Embedding(10000, 16), keras.layers.GlobalAveragePooling1D(), keras.layers.Dense(16, activation='relu'), keras.layers.Dense(1, activation='sigmoid') ]) # 编译模型 model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) # 训练模型 history = model.fit(train_data, train_labels, validation_split=0.2, epochs=10, batch_size=128) # 评估模型 test_loss, test_acc = model.evaluate(test_data, test_labels) print('Test accuracy:', test_acc) ``` 这个模型可以达到约85%的测试精度,如果想要更高的精度,可以尝试使用更复杂的神经网络结构或使用预训练的词向量。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值