yolo系列
埋头苦干小金哥
这个作者很懒,什么都没留下…
展开
-
YOLOV5 onnx部署(python)随笔
3.推理耗时来看:fp16下:0.00583 fp32下:0.00900, fp16耗时提升3.17ms,性能提升35.22%,可以看出单张推理耗时上,fp16的优势较大。2.GPU占用:显卡使用的是NVIDIA GeForce RTX 4060,波动性较大,在1.1G - 4.2G之间,没有查明原因。4.模型大小来看:fp16:14.9MB fp32:27.9MB ,缩小13MB ,46.59%1.从推理的置信度来看没有太大的区别,但是并不代表自己的项目会没有较大影响,还是多做实验。原创 2024-06-28 15:40:52 · 662 阅读 · 0 评论 -
YOLOV5 Pytroch部署(python) 随笔
需要将yolov5s官方权重和模型打包在一起,便于使用,否则就得在项目中放入yolov5 model的源码,实时加载,不建议。有更好的建议,欢迎指点哈~原创 2024-06-28 15:51:46 · 136 阅读 · 0 评论 -
YOLOV5 Segment Pytorch部署(python)随笔
总结:和pred同时输出的,seg部分的proto的后处理部分需要仔细理解一下,二pred输以及后处理和detect基本完全一样。yolo的语义分割效果看起来并不是很好,当然,coco数据集的数据标注也并非挑不出毛病,因此,不排除效果差的原因来自于数据。原创 2024-07-01 16:24:53 · 308 阅读 · 1 评论 -
YOLOV5 Segment ONNX部署(python)随笔
2.模型推理得到的proto,后处理由于用onnx推理,输出并不是Tensor,初始想法是想将后处理部分中使用Tensor处理的部分全部用numpy替换,后来发现需要替换的地方太多,个别部分有点麻烦,所以还是选择转为Tensor进行处理。从推理结果发现,比上次使用pytorch直接推理的效果要好些,没有仔细找原因,有看出来的兄弟私信我。后处理部分,基于yolov5 的segment 后处理,优化了一些,因此和源码可能不太一样。如果需要半精度量化,参考之前发的yolov5 detect的onnx部署。原创 2024-07-02 16:17:55 · 515 阅读 · 0 评论