在Jetson TX2 上测试 Tensorflow、pytorch 模型的推理性能 —— 从入门到tensorrt加速

在Jetson TX2 上安装 Tensorflow or pytorch 并利用 Tensorrt 加速


在Jetson TX2 上安装 Tensorflow or pytorch 并利用 Tensorrt 加速

Jetson TX2 是什么?

在这里插入图片描述
一块嵌入式开发板,不是x86架构,而是ARM架构,这是造成 Anaconda、tensorflow、pytorch之类安装有困难的重要原因。

既然架构不同,那当然有不同的安装包,这也是我要记录、分享的主要内容。

Tensorflow/Pytorch Install

以下就是 环境管理和包管理神器Anaconda、深度学习明星框架 tensorflow 以及 后起之秀pytorch的安装包地址:

for Archiconda:
	
	 - https://github.com/Archiconda/build-tools/releases 
	 
	for Pytorch:
	
	 - https://forums.developer.nvidia.com/t/pytorch-for-jetson-version-1-7-0-now-available/72048
	
	for Tensorflow
	
	 -  https://forums.developer.nvidia.com/t/tensorflow-for-jetson-tx2/64596#527861
	 -  https://developer.nvidia.com/embedded/downloads#?search=TensorFlow

Tensorrt Test

下面利用 tensorrt 对自己的tensorflow模型或者pytorch模型进行加速:

tensorflow example:

这是一个pb模型加速的例子,环境是 tf1.15。

import tensorflow as tf
from tensorflow.python.compiler.tensorrt import trt_convert as trt
import numpy as np
import time

with tf.Session() as sess:
    # First deserialize your frozen graph:
    with tf.gfile.GFile('epoch011--train34.6693_hmp27.0977.pb', 'rb') as f:
        frozen_graph = tf.GraphDef()
        frozen_graph.ParseFromString(f.read())
    # Now you can create a TensorRT inference graph from your
    # frozen graph:
    converter = trt.TrtGraphConverter(input_graph_def=frozen_graph,
                                          nodes_blacklist=['heatmaps/Reshape', 'skeletons/Reshape'],
                                          precision_mode='FP16',
                                          is_dynamic_op=True)
    trt_graph = converter.convert()
    # Import the TensorRT graph into a new graph and run:
    output_node = tf.import_graph_def(
              trt_graph,
              return_elements=['heatmaps/Reshape', 'skeletons/Reshape'])

    # add 'import/'
    input = sess.graph.get_tensor_by_name('import/input_layer:0')
    heatmaps = sess.graph.get_tensor_by_name('import/heatmaps/Reshape:0')
    skeletons = sess.graph.get_tensor_by_name('import/skeletons/Reshape:0')
    print(type(heatmaps))
    t=0
    for i in range(300):
        image_cropped =  np.random.randn(1, 256,256, 3)
        t1 = time.time()
        (heatmaps_out,skeletons_out) = sess.run([heatmaps,skeletons], {input: image_cropped})
        t2 = time.time()
        t3 = t2-t1
        if i>=100:
            t += t3
    print('avg_time:',t/200)
    print('FPS:', str(200/t))
    print('ms:', str(1000*t/200))

Result

result

Pytorch example:

  • https://github.com/NVIDIA-AI-IOT/torch2trt
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 要在Jetson TX2上安装PyTorch,需要先安装JetPack软件套件,并在Jetson TX2上安装Python。然后,可以通过SSH连接到Jetson TX2,并使用pip安装PyTorch包。需要注意的是,Jetson TX2上可能需要编译PyTorch源代码,因此可能需要安装其他依赖项和工具链。建议参考官方文档和社区资源进行安装。 ### 回答2: Jetson TX2是一款较为高端的嵌入式计算机,可以支持人工智能相关的应用。而PyTorch是一种比较流行的深度学习框架,可以用于创建和训练自己的人工智能模型。在Jetson TX2上安装PyTorch,可以让我们更加方便地进行深度学习的研究和应用。以下是Jetson TX2安装PyTorch的步骤: 1.首先,确保您的Jetson TX2已经安装了Nvidia Jetpack,因为这是PyTorch所依赖的一些组件(例如CUDA和cuDNN)所需的基础环境。 2.然后,建议您使用anaconda将PyTorch安装在Jetson TX2上。anaconda是一种用于创建Python虚拟环境的工具,可以避免在Jetson TX2上出现由于不同版本Python包之间的冲突而导致的问题。 3.下载并安装anaconda,前往官方网站(https://www.anaconda.com/distribution/)下载适用于Jetson TX2的合适版本。安装完成后,运行以下命令创建一个名为“tfenv”(可以自行更改名称)的Python虚拟环境: conda create -n tfenv python=3.7 4.激活tfenv环境,运行以下命令: conda activate tfenv 5.接下来,安装PyTorch。由于Jetson TX2上的CPU和GPU规格不同,因此我们需要为CUDA和cuDNN选择正确的版本。当前最新的PyTorch版本是1.9.0,假设您已经安装了与Jetpack 4.4对应的CUDA和cuDNN版本,可以通过以下命令安装PyTorch: pip3 install torch==1.9.0+cu102 torchvision==0.10.0+cu102 -f https://download.pytorch.org/whl/cu102/torch_stable.html 6.测试PyTorch是否安装成功。可以使用以下命令打开Python交互环境: python 然后输入以下Python代码: import torch print(torch.__version__) 如果输出1.9.0,则说明PyTorch已经成功地安装并可以在Jetson TX2上使用。 总之,Jetson TX2安装PyTorch需要在安装anaconda、环境设置、选择正确的PyTorch版本等方面进行详细的步骤,需要注意这些细节,确保正确安装和配置。 ### 回答3: Jetson TX2 是 NVIDIA 推出的一款用于深度学习的嵌入式系统平台,它的灵活性和性能使其成为许多机器学习和人工智能项目的首选。PyTorch 是由 Facebook 开发的一种基于 Python 的机器学习库,它具有易用性和高效性,因此很受欢迎。在本文中,将介绍如何在 Jetson TX2 上安装 PyTorch。 首先,确保您的 Jetson TX2 已连接到网络。然后,您需要安装正确的 Python 版本,因为 PyTorch 仅支持特定的版本。可以从 Jetson TX2 的终端窗口输入以下命令来确认您的 Python 版本: ```bash python -V ``` 如果输出如下内容,表示您已经安装了 Python : ```bash Python 3.6.9 ``` 接下来,使用以下命令,在 Jetson TX2 上安装 PyTorch: ```bash sudo apt-get update sudo apt-get install python3-pip libopenblas-base libopenmpi-dev sudo pip3 install http://nvidia.westus2.cloudapp.azure.com/bsp/pytorch-1.7.0 ``` 上面的命令将使用 pip3 安装 PyTorch 和相关依赖项。安装完成后,您可以使用以下命令验证 PyTorch 是否已成功安装: ```bash python3 -c "import torch; print(torch.cuda.is_available())" ``` 如果输出 “True”,则表示你已经成功安装了 PyTorch。 安装完成后,您可以开始使用 PyTorch 训练深度学习模型Jetson TX2 的高性能和灵活性,使它成为深度学习模型的理想平台。在使用 PyTorch 训练模型时,建议在 Jetson TX2 上使用 GPU 进行加速,这将显著提高训练速度。 总之,Jetson TX2 上安装 PyTorch 很简单,只需几个命令就可以轻松完成。在安装完成后,您将进入一个完全准备好使用 PyTorch 训练深度学习模型的状态。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值