TensorFlow 同时调用多个预训练好的模型

在某些任务中,我们需要针对不同的情况训练多个不同的神经网络模型,这时候,在测试阶段,我们就需要调用多个预训练好的模型分别来进行预测。

弄明白了如何调用单个模型,其实调用多个模型也就顺理成章。我们只需要建立多个图,然后每个图导入一个模型,再针对每个图创建一个会话,分别进行预测即可。

import tensorflow as tf
import numpy as np

# 建立两个 graph
g1 = tf.Graph()
g2 = tf.Graph()

# 为每个 graph 建创建一个 session
sess1 = tf.Session(graph=g1)
sess2 = tf.Session(graph=g2)

X_1 = None
tst_1 = None
yhat_1 = None

X_2 = None
tst_2 = None
yhat_2 = None

def load_model(sess):
    """
        Loading the pre-trained model and parameters.
    """
    global X_1, tst_1, yhat_1
    with sess1.as_default():
        with sess1.graph.as_default():
            modelpath = r'F:/resnet/model/new0.25-0.35/'
            saver = tf.train.import_meta_graph(modelpath + 'model-10.meta')
            saver.restore(sess1, tf.train.latest_checkpoint(modelpath))
            graph = tf.get_default_graph()
            X_1 = graph.get_tensor_by_name("X:0")
            tst_1 = graph.get_tensor_by_name("tst:0")
            yhat_1 = graph.get_tensor_by_name("tanh:0")
            print('Successfully load the model_1!')

			
def load_model_2():
    """
        Loading the pre-trained model and parameters.
    """
    global X_2, tst_2, yhat_2
    with sess2.as_default():
        with sess2.graph.as_default():
            modelpath = r'F:/resnet/model/new0.25-0.352/'
            saver = tf.train.import_meta_graph(modelpath + 'model-10.meta')
            saver.restore(sess2, tf.train.latest_checkpoint(modelpath))
            graph = tf.get_default_graph()
            X_2 = graph.get_tensor_by_name("X:0")
            tst_2 = graph.get_tensor_by_name("tst:0")
            yhat_2 = graph.get_tensor_by_name("tanh:0")
            print('Successfully load the model_2!')
	
def test_1(txtdata):
    """
        Convert data to Numpy array which has a shape of (-1, 41, 41, 41, 3).
        Test a single axample.
        Arg:
                txtdata: Array in C.
        Returns:
            The normal of a face.
    """
    global X_1, tst_1, yhat_1
    data = np.array(txtdata)
    data = data.reshape(-1, 41, 41, 41, 3)
    output = sess1.run(yhat_1, feed_dict={X_1: data, tst_1: True})  # (100, 3)
    output = output.reshape(-1, 1)
    ret = output.tolist()
    return ret


def test_2(txtdata):
    """
        Convert data to Numpy array which has a shape of (-1, 41, 41, 41, 3).
        Test a single axample.
        Arg:
                txtdata: Array in C.
        Returns:
            The normal of a face.
    """
    global X_2, tst_2, yhat_2

    data = np.array(txtdata)
    data = data.reshape(-1, 41, 41, 41, 3)
    output = sess2.run(yhat_2, feed_dict={X_2: data, tst_2: True})  # (100, 3)
    output = output.reshape(-1, 1)
    ret = output.tolist()

    return ret

最后,本程序只是为了说明问题,抛砖引玉,代码有很多冗余之处,不要模仿!

获取更多精彩,请关注「seniusen」!
seniusen

  • 0
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
### 回答1: 可以使用PyTorch中已经实现好的VGG训练模型,具体步骤如下: 1.导入需要的库和模块 ```python import torch import torch.nn as nn import torchvision.models as models ``` 2.实例化VGG训练模型 ```python vgg16 = models.vgg16(pretrained=True) ``` 3.查看VGG模型结构 ```python print(vgg16) ``` 4.使用VGG模型进行测 ```python # 定义输入样本 input_sample = torch.randn(1, 3, 224, 224) # 将输入样本输入VGG模型中 output = vgg16(input_sample) # 查看输出结果的形状 print(output.shape) ``` 以上就是使用PyTorch中的VGG训练模型进行图像识别的基本流程。 ### 回答2: 调用VGG训练模型是一种常见的图像分类任务中的方法。VGG是一种深度卷积神经网络模型,通过在大规模图像数据集上训练,可以提取出图像特征并用于后续分类任务。 调用VGG训练模型的过程通常包括以下几个步骤: 首先,需要下载和加载VGG训练模型的权重。这些权重可以从公开的训练模型库中获取,例如Keras、PyTorch等框架提供的模型库,或者通过其他渠道下载。加载权重后,可以将其应用于新的数据集。 接下来,将加载的VGG模型用于图像数据的特征提取。可以通过调用模型的前几层,将输入图像传入模型,然后利用卷积和池化层提取出图像的特征表示。这些特征可以用于后续的分类任务,如图像识别、目标检测等。 在提取图像特征后,可以根据任务需求进行相应的微调或迁移学习。通过在训练的VGG模型上添加全连接层或调整模型的部分参数,可以使模型更好地适应新任务的特征表示。 最后,根据新任务的数据集进行模型训练和验证。通过传入新数据集的图像样本,可以计算损失函数并进行反向传播优化模型的权重,使其在新任务上具有更好的性能。 综上所述,调用VGG训练模型可以快速、高效地利用已有的图像特征提取能力,为新的图像分类任务提供有力的基础。这种方法在计算机视觉领域得到广泛应用,可以帮助解决各种图像相关的问题。 ### 回答3: 调用VGG训练模型是指使用已经在大规模图像数据上训练好的VGG模型来进行图像分类任务或特征提取。VGG是一种深度卷积神经网络架构,由牛津大学的研究团队提出。它在多个视觉任务中取得了卓越的表现。 调用VGG训练模型的步骤如下: 1. 导入相应的库:首先,需要导入用于图像处理和深度学习的库,比如PyTorch、Keras或TensorFlow。 2. 加载训练模型:选择要使用的VGG模型版本(如VGG16或VGG19),然后加载模型的权重数据(通常是从互联网上下载的训练模型权重文件)。这些权重数据保存了模型在庞大图像数据集上学到的特征。 3. 对图像进行处理:在将图像输入模型之前,需要对其进行处理。这包括对图像进行归一化、裁剪或调整大小等操作。 4. 使用模型进行测:通过将处理后的图像输入到加载的VGG模型中,可以获得模型对图像的分类或特征提取结果。如果是进行图像分类任务,可以通过输出层的激活函数(如Softmax)来获取分类结果。 调用VGG训练模型的好处是可以利用已经训练好的模型参数,在小规模数据集上通过微调或迁移学习进行快速训练。VGG模型在许多计算机视觉任务中都表现出色,例如物体检测、图像分割和特征提取等。因此,调用VGG训练模型可以大大简化开发者在这些任务上的工作量,同时提供更好的性能和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值