python自动生成标题_使用深度学习自动生成图片标题

深度学习:

深度学习和机器学习是这个时代最先进的技术。现在将人工智能与人的思想进行比较,在某些领域,人工智能比人类做得更好。每天都有该领域的新研究。这个领域的增长非常快,因为现在我们有足够的计算能力来执行此任务。深度学习是机器学习的一个分支,它使用多层神经网络。

在传统的机器学习中,该算法具有一组相关特征以进行分析。但是,在深度学习中,该算法会获得原始数据,并自行决定哪些功能是相关的。随着我们增加用于训练它们的数据量,深度学习网络通常会得到改善。

下面将展示一些非常有趣的深度学习应用程序。

现在,我们将看到其应用程序之一,即照片描述或图像标题生成器。图片标题生成器:

图像标题生成器或照片描述是深度学习的应用之一。在其中,我们必须将图像传递给模型,并且模型会根据其训练进行一些处理并生成标题或描述。这种预测有时不太准确,并且会产生一些毫无意义的句子。为了获得更好的结果,我们需要非常高的计算能力和非常庞大的数据集。现在,我们将看到有关图像字幕生成器的数据集和神经网络架构的一些信息。先决条件:

该项目需要具备深度学习,Python知识,在Jupyter笔记本,Keras库,Numpy和自然语言处理方面的丰富知识

确保已安装以下所有必需的库:Tensorflow

Keras

Pandas

NumPy

nltk(自然语言工具套件)

Jupyter- IDE数据集:

在这个项目中,我们使用的是闪烁的30k数据集。其中有30,000张带有图像ID的图像,并且特定ID生成了5个字幕。

这是数据集的链接:

https://www.kaggle.com/hsankesara/flickr-image-dataset网络架构:

1、图像特征检测:

对于图像检测,我们使用的是预训练模型VGG16。VGG16已安装在Keras库中.VGG 16由牛津大学视觉几何小组实验室的Karen Simonyan和Andrew Zisserman于2014年在论文《非常大的卷积网络识别大型图像》中提出。

该模型在2014年赢得了ILSVRC挑战。

这是3-D和2-D中的模型表示。

概述:

conv1层的输入具有固定大小的224 x 224 RGB图像。图像通过一叠卷积(转换)层,其中使用的滤镜具有非常小的接收场:3×3(这是捕获左/右,上/下,中心的概念的最小尺寸)。在其中一种配置中,它还利用了1×1卷积滤波器,这可以看作是输入通道的线性变换(其次是非线性)。卷积步幅固定为1个像素;转换的空间填充层输入是在卷积后保留空间分辨率,即,对于3×3转换,填充为1像素层。空间池化由五个最大池化层执行,这五个层都遵循一些转换。层(并非所有转换层都跟着最大池)。最大池化是在2×2像素的窗口上执行的,

三层全连接(FC)层遵循一堆卷积层(在不同体系结构中深度不同):前两层各具有4096个通道,第三层进行1000路ILSVRC分类,因此包含1000个通道(每个通道一个类)。最后一层是soft-max层。在所有网络中,完全连接的层的配置都是相同的。

2.使用LSTM生成文本

长短期内存网络(通常称为“ LSTM”)是一种特殊的RNN,能够学习长期依赖关系。它们是由Hochreiter&Schmidhuber(1997)提出的,并在随后的工作中被许多人完善和推广。它们在各种各样的问题上都表现出色,现已被广泛使用。

概述:

常见的LSTM单元由一个cell,一个input gate,一个output gate和一个forget gate组成。单元会记住任意时间间隔内的值,并且三个门控制着进出单元的信息流。

LSTM网络非常适合基于时间序列数据进行分类,处理和做出预测,因为时间序列中重要事件之间可能存在未知持续时间的滞后。开发LSTM是为了解决训练传统RNN时可能遇到的梯度消失问题。与缝隙长度相对不敏感是LSTM相对于RNN,隐马尔可夫模型和其他序列学习方法在众多应用中的优势。

与普通循环单元相比,LSTM单元的优势在于其单元存储单元。单元向量具有封装忘记部分先前存储的内存以及添加部分新信息的概念的能力。为了说明这一点,必须检查单元的方程式及其在引擎盖下处理序列的方式。

现在,我们将此模型架构组合到一个模型中,这就是我们最终的模型,它将根据图像生成标题。

主要模型架构:

最终模型是CNN和RNN模型的组合。为了训练这个模型,我们必须给两个模型两个输入。(1)图片(2)相应的字幕。对于每个LSTM层,我们为每个LSTM层输入一个单词,每个LSTM层预测下一个单词,以及LSTM模型如何通过从字幕中学习来优化自身。对于图像功能,我们将从VGG16预训练模型中获取所有图像功能数组并保存在文件中,以便我们可以直接使用此文件或功能将字幕和图像功能相互关联。

最后一层的大小与唱词的长度相同。对于此模型,我们使用“分类交叉熵”,因为在最后一层中,我们必须预测每个单词的概率,然后仅使用高概率的单词。我们正在使用Adam优化器来优化网络或更新网络权重。

布鲁分数:为此,我们可以使用Blue-score为该模型生成带有n-grams模型的字幕。通过使用BLEU分数,我们可以检查哪个n-gram最适合为该数据集生成字幕。BLEU分数在0到1之间。BLEU(或双语评估欠缺)是用于将文本的候选译文与一个或多个进行比较的分数更多参考翻译。尽管专为翻译而开发,但它可用于评估为一组自然语言处理任务生成的文本。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习生成图片的代码通常使用生成对抗网络(GAN)来实现。GAN由两个主要部分组成:生成器和判别器。生成器负责生成逼真的图片,而判别器则负责判断生成的图片是真实的还是伪造的。 以下是一个简单的深度学习生成图片的代码示例: ```python import tensorflow as tf from tensorflow.keras import layers # 定义生成器模型 def make_generator_model(): model = tf.keras.Sequential() model.add(layers.Dense(7*7*256, use_bias=False, input_shape=(100,))) model.add(layers.BatchNormalization()) model.add(layers.LeakyReLU()) model.add(layers.Reshape((7, 7, 256))) assert model.output_shape == (None, 7, 7, 256) model.add(layers.Conv2DTranspose(128, (5, 5), strides=(1, 1), padding='same', use_bias=False)) assert model.output_shape == (None, 7, 7, 128) model.add(layers.BatchNormalization()) model.add(layers.LeakyReLU()) model.add(layers.Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same', use_bias=False)) assert model.output_shape == (None, 14, 14, 64) model.add(layers.BatchNormalization()) model.add(layers.LeakyReLU()) model.add(layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias=False, activation='tanh')) assert model.output_shape == (None, 28, 28, 1) return model # 定义判别器模型 def make_discriminator_model(): model = tf.keras.Sequential() model.add(layers.Conv2D(64, (5, 5), strides=(2, 2), padding='same', input_shape=[28, 28, 1])) model.add(layers.LeakyReLU()) model.add(layers.Dropout(0.3)) model.add(layers.Conv2D(128, (5, 5), strides=(2, 2), padding='same')) model.add(layers.LeakyReLU()) model.add(layers.Dropout(0.3)) model.add(layers.Flatten()) model.add(layers.Dense(1)) return model # 定义生成器和判别器 generator = make_generator_model() discriminator = make_discriminator_model() # 定义损失函数和优化器 cross_entropy = tf.keras.losses.BinaryCrossentropy(from_logits=True) # 定义生成器损失函数 def generator_loss(fake_output): return cross_entropy(tf.ones_like(fake_output), fake_output) # 定义判别器损失函数 def discriminator_loss(real_output, fake_output): real_loss = cross_entropy(tf.ones_like(real_output), real_output) fake_loss = cross_entropy(tf.zeros_like(fake_output), fake_output) total_loss = real_loss + fake_loss return total_loss # 定义生成器和判别器的优化器 generator_optimizer = tf.keras.optimizers.Adam(1e-4) discriminator_optimizer = tf.keras.optimizers.Adam(1e-4) # 定义训练函数 @tf.function def train_step(images): noise = tf.random.normal([BATCH_SIZE, 100]) with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape: generated_images = generator(noise, training=True) real_output = discriminator(images, training=True) fake_output = discriminator(generated_images, training=True) gen_loss = generator_loss(fake_output) disc_loss = discriminator_loss(real_output, fake_output) gradients_of_generator = gen_tape.gradient(gen_loss, generator.trainable_variables) gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.trainable_variables) generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables)) discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables)) # 开始训练 def train(dataset, epochs): for epoch in range(epochs): for image_batch in dataset: train_step(image_batch) # 载入数据集并进行预处理 (train_images, train_labels), (_, _) = tf.keras.datasets.mnist.load_data() train_images = train_images.reshape(train_images.shape, 28, 28, 1).astype('float32') train_images = (train_images - 127.5) / 127.5 BUFFER_SIZE = 60000 BATCH_SIZE = 256 train_dataset = tf.data.Dataset.from_tensor_slices(train_images).shuffle(BUFFER_SIZE).batch(BATCH_SIZE) # 开始训练 EPOCHS = 50 train(train_dataset, EPOCHS) ``` 这段代码使用TensorFlow和Keras库来实现一个简单的生成对抗网络(GAN),用于生成手写数字图片。在训练过程中,生成器和判别器通过优化器进行参数更新,以达到生成逼真图片的目标。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值