【方便今后读研过程中查阅】
首先,我们需要解决两个问题,一个是下载docker容器配好环境的问题,一个是检测摄像头的问题。GitHub上面都有,就不一一赘述(把链接贴在后面)。GitHub - dusty-nv/jetson-inference: Hello AI World guide to deploying deep-learning inference networks and deep vision primitives with TensorRT and NVIDIA Jetson.
关于相机问题,我查阅了资料,tx2板子上的摄像头是MIPI CSI摄像机。视频里是V4L2跟我们的不一样。(camera在附件中能查阅)
Inference的示例
(Import/output streams)
一般用rtp协议传输到显示器查看反馈,注意电脑和tx2需要连同一个wifi,视频中他使用的是他自己的笔记本(x86)远程接收板子的反馈:
这是tx2(aarch64):
传输RTP喷气式推理/辅助-streaming.md 在主人 •尘土飞扬/喷射-推理 »吉图布 (github.com)
Video-viewer 命令 /dev/viede0相机名 Rtp://sky-x4e2主机名(每台电脑不一样),输入IP地址也可以
接下来是在pc端查看:
这里他推荐的是Getstreamer ,因为延迟比较低,体验很好
下面一整段都是命令
$ gst-launch-1.0 -v udpsrc port=1234 \
caps = "application/x-rtp, media=(string)video, clock-rate=(int)90000, encoding-name=(string)H264, payload=(int)96" ! \
rtph264depay ! decodebin ! videoconvert ! autovideosink
要改变用来inference的网络时: