1、jetonson inference(官网教程)(使用jetpack3.3不建议参考,解决问题的思路倒是可以随便看看)

本文档详细介绍了在Jetson TX2上使用Jetpack 3.3搭建TensorRT图像识别的过程,包括安装Python 3.6和解决编译问题,以及下载和运行模型的步骤。在编译过程中,作者遇到了依赖和命名空间问题,最终通过回退代码版本解决。虽然遇到了模型文件损坏的问题,但通过重新下载和优化网络,成功实现了图像识别。
摘要由CSDN通过智能技术生成

本人在前面的学习中走了一些弯路,此处开始以官网资料为准,下面开始学习官网提供的教程,叫做HELLO AI WORLD,github的网址
在进行这个项目之前请先为您的TX2刷好机,本人使用的是Jetpack 3.3,刷机过程可一参考本人的另外一篇博客,链接在这里

一、从源头建设项目

仓库提供了一个TensorRT加速的深度学习网络库,用于图像识别,带有局部化的对象检测(即边界框)和语义分割,下面是构建和安装步骤。在终端上输入如下的命令行。

1、构建与安装

sudo apt-get update#更新安装程序列表
sudo apt-get install git cmake libpython3-dev python3-numpy
git clone --recursive https://github.com/dusty-nv/jetson-inference
cd jetson-inference
mkdir build
cd build
cmake ../  #当cmake运行时,会启动一个脚本(CMakePreBuild.sh),它将为您安装所需的依赖项并下载DNN模型。
make -j4
sudo make install
sudo ldconfig
cd jetson-inference#以下这两步切记不可忘记了
git submodule update --init#更新submodule,官网的提示:Remember to run the git submodule update --init step (or clone with the --recursive flag)

2、构建过程中某些步骤的意义和可能遇到的问题:

(1)安装python3.6和对应的开发包

系统自带python 2.7,3.5,并且也有libpython-dev and python-numpy,但是没有python 3.6和对应的开发包,下面进行安装,


                
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值