Deepstream的“源文件”目录位于“/opt/nvidia/deepstream/deepstream-5.0/sources”
这个示例展示了如何集成像Yolo这样的检测器模型,该模型通过TensorRT的IPlugin接口支持各个层,并使用DeepStreamSDK对检测到的对象进行自定义输出层解析。
示例使用IPluginFactory接口,在Yolo中创建特定的层,并配置由TensorRT提供的Yolo插件。
该例程演示了如何在运行时从engine文件中重建用户定义的TensorRT层。
文件详情
- deepstream_app_config_yolo[V3,V3_tiny,V2,V2_tiny,tlt].txt
使用YoloV2/ YoloV2 -tiny/yolo/yolo-tiny/tlt模型的应用程序配置文件 - config_infer_primary_yolo[V3,V3_tiny,V2,V2_tiny,tlt].txt
Yolo检测器模型的GStreamer nvinfer插件的配置文件 - yolov3-calibration.table.trt7.0
yoloV3 INT8 在TensorRT 7.0+上的校准二进制文件 - nvdsinfer_custom_impl_Yolo/nvdsinfer_yolo_engine.cpp
实现’NvDsInferCreateModelParser’/IModelParser为nvdsinfer解析自定义模型 - nvdsinfer_custom_impl_Yolo/nvdsparsebbox_Yolo.cpp
为Yolo模型检测到的对象提供输出层解析功能。 - nvdsinfer_custom_impl_Yolo/yoloPlugins.h
YoloLayerV3和YoloLayerV3PluginCreator的声明。 - nvdsinfer_custom_impl_Yolo/yoloPlugins.cpp
实现YoloLayerV3和YoloLayerV3PluginCreator。 - nvdsinfer_custom_impl_Yolo/kernels.cu
cuda内核的实现 - nvdsinfer_custom_impl_Yolo/trt_utils.h
安装tensorRT网络的实用程序 - nvdsinfer_custom_impl_Yolo/trt_utils.cpp
建立tensorRT网络的实用程序的实现 - nvdsinfer_custom_impl_Yolo/yolo.h
创建Yolo cuda引擎接口 - nvdsi