Yolov5分别使用Cpp,Python,ROS部署

Yolov5-OpenCV-Cpp-Python-ROS

代码地址
使用OpenCV 4.5.4推理YOLOv5模型,分别使用C++,Python和ROS实现。

基于yolov5-opencv-cpp-python修改。
在原代码的基础上使用CMake编译(能够更方便的定义程序路径),并且加入了对ROS传入图片的支持。

代码解释

  • 变量net_path定义了onnx网络模型路径.
  • 变量 class_path定义了分类文件的路径.
  • ROS节点订阅**/image**话题来获取输入图像.

NOTE: The code depends on the output dimension of your network model, which means the variables dimensions and rows in ros.cpp should be the exact same size of output dimensions.
注意: 网络推理的计算取决于网络模型的输出维度, 也就是说ros.cpp中的变量dimensions and rows应该与其一致.

环境配置

  • 任何Linux OS (在Ubuntu 18.04上测试)
  • OpenCV 4.5.4+
  • Python 3.7+(可选)
  • GCC 9.0+(可选)
  • ROS melodic(可选)

注意!!! 先于4.5.4的OpenCV版本不会正常运行。

使用ROS/C++推理

C++/ROS代码在Yolo_ROS/ros.cpp

git clone https://github.com/YellowAndGreen/Yolov5-OpenCV-Cpp-Python-ROS.git
cd Yolov5-OpenCV-Cpp-Python-ROS/Yolo_ROS
mkdir build && cd build
cmake ../
make
./yolo_ros

使用python推理

Python代码在python/yolo.py.

git clone https://github.com/YellowAndGreen/Yolov5-OpenCV-Cpp-Python-ROS.git
cd Yolov5-OpenCV-Cpp-Python-ROS
python python/yolo.py 

使用GPU运行:

git clone https://github.com/YellowAndGreen/Yolov5-OpenCV-Cpp-Python-ROS.git
cd Yolov5-OpenCV-Cpp-Python-ROS
python python/yolo.py cuda
python python/yolo-tiny.py cuda

使用C++推理

C++代码在cpp/yolo.cpp.

git clone https://github.com/YellowAndGreen/Yolov5-OpenCV-Cpp-Python-ROS.git
cd Yolov5-OpenCV-Cpp-Python-ROS/cpp
mkdir build && cd build
cmake ../
make
./yolo_example

导出Yolov5 模型到onnx格式

https://github.com/ultralytics/yolov5/issues/251

我的指令是:

git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt

然后转换模型:

$ python3 export.py --weights yolov5n.pt --img 640 --include onnx
export: data=data/coco128.yaml, weights=['yolov5n.pt'], imgsz=[640], batch_size=1, device=cpu, half=False, inplace=False, train=False, optimize=False, int8=False, dynamic=False, simplify=False, opset=12, verbose=False, workspace=4, nms=False, agnostic_nms=False, topk_per_class=100, topk_all=100, iou_thres=0.45, conf_thres=0.25, include=['onnx']
YOLOv5 🚀 v6.0-192-g436ffc4 torch 1.10.1+cu102 CPU

Fusing layers... 
Model Summary: 213 layers, 1867405 parameters, 0 gradients

PyTorch: starting from yolov5n.pt (4.0 MB)

ONNX: starting export with onnx 1.10.2...
/home/user/workspace/smartcam/yolov5/models/yolo.py:57: TracerWarning: Converting a tensor to a Python boolean might cause the trace to be incorrect. We can't record the data flow of Python values, so this value will be treated as a constant in the future. This means that the trace might not generalize to other inputs!
  if self.onnx_dynamic or self.grid[i].shape[2:4] != x[i].shape[2:4]:
ONNX: export success, saved as yolov5n.onnx (7.9 MB)

Export complete (1.33s)
Results saved to /home/doleron/workspace/smartcam/yolov5
Visualize with https://netron.app
Detect with `python detect.py --weights yolov5n.onnx` or `model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5n.onnx')
Validate with `python val.py --weights yolov5n.onnx`
$ 
  • 0
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在 ROS使用 YOLOv5 进行目标检测和分割,可以使用以下步骤: 1. 首先,需要在 ROS 中安装相应的 Python 库和 YOLOv5 模型。可以使用以下命令安装 `torch` 和 `torchvision`: ``` pip install torch torchvision ``` 然后,可以从 YOLOv5 的 GitHub 仓库中下载模型代码和预训练权重: ``` git clone https://github.com/ultralytics/yolov5.git cd yolov5/ ``` 2. 接下来,可以使用 ROS 的 `cv_bridge` 库将 ROS 图像消息转换为 OpenCV 格式的图像。可以参考以下代码: ```python import cv2 from cv_bridge import CvBridge from sensor_msgs.msg import Image def ros_to_cv2(ros_image): bridge = CvBridge() cv_image = bridge.imgmsg_to_cv2(ros_image, desired_encoding='passthrough') return cv_image ``` 3. 然后,可以使用 YOLOv5 进行目标检测和分割。可以参考以下代码: ```python import torch from yolov5.models.experimental import attempt_load from yolov5.utils.general import non_max_suppression from yolov5.utils.torch_utils import select_device # 加载模型 weights = 'path/to/your/weights.pt' device = select_device('') model = attempt_load(weights, map_location=device) # 检测并分割目标 img = cv2.imread('path/to/your/image.jpg') img = torch.from_numpy(img).to(device) img = img.float() / 255.0 img = img.permute(2, 0, 1).unsqueeze(0) pred = model(img, augment=False)[0] pred = non_max_suppression(pred, conf_thres=0.5, iou_thres=0.5)[0] # 处理分割结果 mask = pred['masks'][0, 0].cpu().numpy() mask = (mask > 0.5).astype('uint8') * 255 # 将分割结果转换为 ROS 消息 bridge = CvBridge() mask_msg = bridge.cv2_to_imgmsg(mask, encoding='mono8') ``` 4. 最后,将分割结果发布到 ROS 中。可以参考以下代码: ```python import rospy from sensor_msgs.msg import Image rospy.init_node('yolov5_segmentation') # 创建 ROS 发布者 mask_pub = rospy.Publisher('/segmentation/mask', Image, queue_size=1) # 循环发布分割结果 while not rospy.is_shutdown(): # 获取原始的 ROS 图像消息 image_msg = rospy.wait_for_message('/camera/image_raw', Image) # 将 ROS 图像消息转换为 OpenCV 格式的图像 img = ros_to_cv2(image_msg) # 检测并分割目标 pred_mask = detect_and_segment(image) # 将分割结果转换为 ROS 消息 mask_msg = cv2_to_ros(pred_mask) # 发布分割结果 mask_pub.publish(mask_msg) ``` 注意:以上代码仅供参考,具体的实现可能会因实际情况而有所不同。此外,YOLOv5 的分割结果可能会存在一些误差和噪声,需要根据具体的应用场景进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值