yolov8跟踪模式部署Ros系统上,跟踪鼠标选择的目标,实时发布目标的坐标信息(python实现)

具体实现:

鼠标不点击目标,不发送任何信息,图像显示的是yolov8检测目标的所有结果

鼠标点击后,跟踪鼠标选择的目标并实时循环发布目标的坐标信息,图像显示的是目标的坐标框

若选择的目标丢失在摄像头内,暂停发送坐标信息,且图像显示的是yolov8检测目标的所有结果,等待鼠标下次点击,选择目标

实现思路:

用opencv调用摄像头

加载yolov8 track模式

Yolov8的results的plot()方法,绘制结果图片

给绘制的结果图片添加窗名

opencv鼠标响应函数绑定操作的窗口

编写鼠标响应的回调函数

编写选择目标框的一个算法

使用opencv在图像上画矩形框的函数 rectangle函数 使用方法见:python-opencv第五期:rectangle函数详解

发送选择目标的坐标信息,并只显示跟踪的目标的目标框

视频演示:

yolov8目标跟踪,坐标发送


代码附下,含详细注释,供大家参考学习。创作不易,如有错误,欢迎大家指正,敬请谅解。

#!/usr/bin/env python
import cv2
from ultralytics import YOLO
import numpy as np
import rospy
from communication_yolo.msg import  yolomsg
 
 
def onMouse(event, x, y, flags,param):      #鼠标回调函数,每点击鼠标响应一次,所做出的动作即:选择出目标框并发送目标框的坐标信息
    global start_x, start_y,n,is_mouse_clicked,boxes_id
    start_x, start_y = -1, -1           #每次执行鼠标响应函数前,将坐标归零
    if event == cv2.EVENT_LBUTTONDOWN:         #鼠标左键下降沿触发
        start_x, start_y = x, y
        n = chooseobj(point, start_x, start_y)           #调用选择目标框函数,传入所有目标框坐标二维列表point、鼠标点击时的坐标start_x、start_y
        boxes_id = results[0].boxes[n].id   #获取点击鼠标时,目标的id
        is_mouse_clicked=True      #记录鼠标点击的标志,为if条件判断作准备
        
 
 
def chooseobj(p,start_x,start_y):           #选择目标框的函数,取目标框中心点与鼠标响应时坐标最短距离的目标框的编号
    point_center = list()           #创建列表,存储计算得来的所有目标框的中心点(为一个二维的列表)
    i = 0
    while i < len(p): 
        point_center.append([int((p[i][2] - p[i][0]) / 2 + p[i][0]), int((p[i][3] - p[i][1]) / 2 + p[i][1])])  #求各个boxes的中心点坐标,并依次赋值于列表
        i=i+1
    distance = list()       #创建列表,存放各个目标框中心点距离与鼠标响应时坐标的距离
    m = 0
    while m < len(p):
        pixe1 = np.array([start_x, start_y]) #鼠标响应时坐标
        pixe2 = np.array([point_center[m][0], point_center[m][1]]) #各个目标框中心点坐标
        distance.append(cv2.norm(pixe1, pixe2)) #计算各个目标框中心点与鼠标响应时坐标的距离(即两个像素点的距离)
        m=m+1
    minimum = min(distance)  #找各个目标框距离列表中的最小值
    boxes_index = distance.index(minimum)  #通过列表索引,将最小值对应的列表下表返回
    return boxes_index
 
rospy.init_node("yolo_ros_pub")        #初始化Ros节点
 
pub = rospy.Publisher("yolomsg",yolomsg,queue_size=10)         #创建发布对象,指定发布方的话题和消息类型
 
# Load the YOLOv8 model
model = YOLO("/home/zzb/yolov8_ws/src/communication_yolo/yolov8_main/yolov8n.pt")    #加载yolo的模型权重
# Open the video file
cap = cv2.VideoCapture(0)
# Loop through the video frames
 
#初始化参数
is_mouse_clicked=False
n = 0
boxes_id=0
 
while cap.isOpened():
    # Read a frame from the video
    success, frame = cap.read()
 
    if success:
        # Run YOLOv8 inference on the frame
        results = model.track(source=frame,persist=True)
        # 将Tensor类型的xy坐标数据转为一个二维列表,外层列表长度为识别目标boxes的个数,内层为xyxy四个目标坐标信息
        point = results[0].boxes.xyxy.tolist()

        #确保results是否有目标,且由于point 是实时刷新的,防止出现之前点击选择的n很大,而导致下面实时索引results[0].boxes[n].id时n超出范围的bug,即:使n与results的n实时绑定
        #且鼠标选择了目标且确保发送目标框坐标信息,是自己之前点击的id,就发送信息
        if  n<len(point) and is_mouse_clicked and results[0].boxes[n].id == boxes_id:
            msg = yolomsg()             #创建自定义消息的对象
            msg.xmin= int(point[n][0])   #赋值选择出的目标框的四个坐标信息
            msg.ymin = int(point[n][1])
            msg.xmax =int(point[n][2])
            msg.ymax = int(point[n][3])
            pub.publish(msg) #发送消息
            annotated_copy = frame.copy()
            x_min, y_min, x_max, y_max = map(int, point[n])  # Extract coordinates
            annotated_results = cv2.rectangle(annotated_copy, (x_min, y_min), (x_max, y_max), (0, 255, 0), 2) #opencv画矩形框的函数,根据选择的目标的坐标画矩形框
            cv2.imshow("YOLOv8 Inference", annotated_results)
        else :
            # Visualize the yolov8 results on the frame
            annotated_frame = results[0].plot()  #Yolov8的results的plot()方法,绘制结果图片
            # Display the annotated frame
            cv2.imshow("YOLOv8 Inference", annotated_frame)
            is_mouse_clicked = False    #results无目标就将鼠标点击置0等待下次点击

        cv2.setMouseCallback("YOLOv8 Inference", onMouse)      #while循环监听opencv鼠标响应函数
 
        # Break the loop if 'q' is pressed
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        # Break the loop if the end of the video is reached
        break
 
# Release the video capture object and close the display window
cap.release()
cv2.destroyAllWindows()

  • 14
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
你好!对于ROSYOLO结合的抓取任务,可以通过以下步骤来实现: 1. 安装ROS:首先,确保你已经安装了ROS(Robot Operating System)。具体安装步骤可以参考ROS官方网站的文档。 2. 安装YOLO:接下来,你需要安装YOLO(You Only Look Once)目标检测算法。YOLO是一个开源的深度学习算法,可以用于实时目标检测。你可以从YOLO的官方网站上获取相关的代码和模型。 3. 创建ROS包:使用ROS的工具,你可以创建一个ROS包,用于管理你的代码和资源文件。可以使用以下命令来创建一个新的ROS包: ``` $ cd catkin_ws/src $ catkin_create_pkg my_package rospy std_msgs ``` 这将在catkin工作空间的src目录下创建一个名为my_package的ROS包,并添加rospy和std_msgs作为依赖项。 4. 编写ROS节点:在ROS包中,你可以编写一个节点来调用YOLO算法进行目标检测和抓取。你可以使用Python编写ROS节点,利用rospy库来与ROS系统进行交互。在节点中,你可以调用YOLO算法的相关函数,读取图像数据,并进行目标检测和抓取操作。 5. 配置机器人硬件:如果你的抓取任务需要与机器人硬件进行交互,例如控制机械臂进行抓取操作,你需要配置机器人硬件的接口和驱动程序。具体的配置过程将根据你使用的硬件和机器人平台而有所不同。 6. 运行ROS节点:完成节点的编写后,可以使用ROS命令来运行节点。例如,你可以使用以下命令来运行一个名为"my_node"的节点: ``` $ rosrun my_package my_node.py ``` 请注意,以上步骤只是一个大致的指导,具体实现和配置过程将根据你的具体需求和环境而有所不同。希望这些信息对你有所帮助!如果你有更多的问题,请随时提问。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

似苦又甜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值