安卓设备上ncnn部署yolov5-lite推理
可以支持多个模型共同推理
参考:
nihui写的安卓部署yolov5:
nihui版yolov5 ncnn
yolov5-lite作者pogg的仓库:
yolov5-lite
本项目的github地址:
ncnn-android-ylov5-lite
觉得不错的话github上点一下star哦~~~
原demo中是将加载、推理、后处理等部分都写在jni中,推理加载都为同一个模型,因为项目需求我需要推理多个yolo模型,所以我把jni中推理和后处理部分分离出来,写成cpp文件方便调用,同时修改了java部分的传参
效果如下,感觉还可以
使用时,环境配置和原版demo一样,只需将ncnn库放进去,然后修改cmake就可以了
需要修改.param文件中reshape层动态调整与permute层的名字
然后改改target_size,文件路径之类的参数即可
我上传的版本是推理了两个yolov5模型的,传参部分按照我的需求写的,和原来不太一样
具体看github上的项目代码吧:https://github.com/Ma0zii/ncnn-android-yolov5-lite