Jetson Nano的TensorRT 板载摄像头实时图像识别

TensorRT 板载摄像头实时图像识别

今天,调用了jetson-inference库中的例程,通过CSI摄像头采集图像并进行图像处理识别。
进入到jetson-inference/ aarch64 / bin目录下:
在这里插入图片描述

实时图像识别演示位于jetson-inference/ aarch64 / bin中并被调用imagenet-camera。它在实时摄像机流上运行,并根据用户参数,使用TensorRT加载googlenet或alexnet。

$ ./imagenet-camera     

每秒帧数(FPS),来自视频的分类对象名称和分类对象的置信度被打印到openGL窗口标题栏。
在这里插入图片描述

默认情况下,应用程序可以识别多达1000种不同类型的对象,因为Googlenet和Alexnet是在包含1000类对象的ILSVRC12 ImageNet数据库上进行培训的。1000种类型对象的名称映射,可以在repo下找到data/networks/ilsvrc12_synset_words.txt
在这里插入图片描述
如果csi摄像头画面倒置,可以修改~/jetson-inference/utils/camera目录下的 gstCamera.cpp,把倒置画面命令注释掉。
在这里插入图片描述

Jetson Nano可以使用TensorRT进行加速推理。首先,确保Jetson Nano上安装了最新版本的JetPack 4.4,其中包含了TensorRT 7.1的安装。此外,还需要安装PyTorch 1.6.0以及相应的CUDA和cuDNN版本。请注意,Jetson Nano上的TensorRT版本与加载的ONNX模型版本要保持一致,否则可能会导致加载模型时出现问题。 同时,在执行任何与AI相关的操作时,务必给Jetson Nano安装风扇来散热,并使用外部适配器供电(最好使用3A输出的电源)。这样可以确保Jetson Nano在进行深度学习任务时能够保持稳定和良好的性能。 总结起来,Jetson Nano可以使用TensorRT进行深度学习推理加速,但在使用之前需要确保安装了相应的软件包,并采取适当的散热和供电措施。对于更详细的Jetson Nano的介绍和基本使用方法,可以参考相关博客文章。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Jetson Nano目标检测手把手实战教程(pytorch训练、tensorrt推理,含完整代码和数据)](https://blog.csdn.net/qianbin3200896/article/details/108949723)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值