ROS 基于yolo的本地视频识别

ros包创建

这里默认我们已经创建了工作空间
如果没有,我们需要执行以下几步(已经创建的可以跳过):

1、首先创建一个工作目录文件

mkdir -p ./catkin_ws/src

catkin_ws为工作空间
2、在工作区目录下执行执行

catkin_make

3、在src目录下建立包(如果已经创建的,可以直接从这一步开始):

catkin_create_pkg local_vedio_detect std_msgs rospy roscpp

其中local_vedio_detect为包名
创建包
以上三步参考链接ros创建包

话题模型

话题模型

创建vediopub.cpp

vediopub
在loca_vedio_detect下的src创建vediopub.cpp文件
下面是vediopub.cpp文件内容

#include<ros/ros.h>
#include<cv_bridge/cv_bridge.h>
#include<sensor_msgs/image_encodings.h>
#include<image_transport/image_transport.h>

#include<opencv2/opencv.hpp>
#include<opencv2/highgui/highgui.hpp>
#include<opencv2/imgproc/imgproc.hpp>

#include<stdio.h>

using namespace cv;
using namespace std;

int main(int argc, char** argv)
{
    // ROS节点初始化
    ros::init(argc, argv, "image_publisher");
    ros::NodeHandle n; 
    ros::Time time = ros::Time::now();
    ros::Rate loop_rate(5);
    
     // 定义节点句柄   
    image_transport::ImageTransport it(n);
    image_transport::Publisher pub = it.advertise("/camera/image_raw", 1);
    sensor_msgs::ImagePtr msg;
        
    // opencv准备读取视频
    cv::VideoCapture video;
    video.open("/home/winston/catkin_ws/src/local_vedio_detect/data/11.mp4");  

    if( !video.isOpened() )
    {
        ROS_INFO("Read Video failed!\n");
        return 0;
    }
    Mat frame;
    int count = 0;
    while(1)
    {
        video >> frame;
        if( frame.empty() )
            break;
        count++;
        
        msg = cv_bridge::CvImage(std_msgs::Header(), "bgr8", frame).toImageMsg();
        pub.publish(msg);
        
        ROS_INFO( "read the %dth frame successfully!", count );
        loop_rate.sleep();
        ros::spinOnce();
    }
    video.release();
    
    return 0;
}

注意,

     // 定义节点句柄   
    image_transport::ImageTransport it(n);
    image_transport::Publisher pub = it.advertise("/camera/image_raw", 1);
    sensor_msgs::ImagePtr msg;

这一部分中的 /camera/image_raw 要和roa.yaml的camera_reading中的topic一致
在这里插入图片描述

创建vediosub.cpp

在这里插入图片描述
以下是代码内容:

#include<ros/ros.h>
#include<cv_bridge/cv_bridge.h>
#include<sensor_msgs/image_encodings.h>
#include<image_transport/image_transport.h>

#include<opencv2/opencv.hpp>
#include<opencv2/highgui/highgui.hpp>
#include<opencv2/imgproc/imgproc.hpp>

#include<stdio.h>
#include<math.h>
#include<vector>


void imageCalllback(const sensor_msgs::ImageConstPtr& msg)
{
	ROS_INFO("Received \n");
	try{
        cv::imshow( "video", cv_bridge::toCvShare(msg, "bgr8")->image );
        cv::waitKey(30);
    }
    catch( cv_bridge::Exception& e )
    {
        ROS_ERROR( "Could not convert from '%s' to 'bgr8'.", msg->encoding.c_str() );
    }
}

int main(int argc, char** argv)
{
	ros::init(argc, argv, "image_listener");
	ros::NodeHandle n;
    cv::namedWindow("video");
    cv::startWindowThread();

    image_transport::ImageTransport it(n);
    image_transport::Subscriber sub = it.subscribe( "video_image", 1, imageCalllback );

	
	ros::spin();
    cv::destroyWindow("video");
	return 0;
}

CMakeList.txt的修改

CMakeList.txt在local_vedio_detect文件下,下图是是cmakelist的初始样子,蓝色的都是注释,我们要在这个的基础上进行一些修改
在这里插入图片描述
首先找到这一行
在这里插入图片描述
把这段代码替换选出来的内容

find_package(catkin REQUIRED COMPONENTS
  cv_bridge
  image_transport
  roscpp
  rospy
  sensor_msgs
  std_msgs
)
find_package(OpenCV REQUIRED)

然后找到这一行
在这里插入图片描述
修改为:

include_directories(include ${catkin_INCLUDE_DIRS})
include_directories(include ${OpenCV_INCLUDE_DIRS})
 
add_executable(vediopub src/vediopub.cpp)
target_link_libraries(vediopub ${catkin_LIBRARIES} ${OpenCV_LIBRARIES})
#add_dependencies(mytest opencvexam_gencpp)

add_executable(vediosub src/vediosub.cpp)
target_link_libraries(vediosub ${catkin_LIBRARIES} ${OpenCV_LIBRARIES})

进行catkin_make

在这里插入图片描述
在这里插入图片描述
不出以外的话,会编译成功

运行

最后就是运行了
首先需要到catkin_ws目录下,打开终端输入roscore

roscore

然后打开另一个终端
输入

rosrun local_vedio_detect vediopub

在这里插入图片描述
如果看到这样的结果,那代表运行成功了

调用darknet_ros

为了能够看到视频的检测结果,我们需要调用darnet_ros的内容
下图就是darknet_ros的文件
github原文链接
配置过程
在这里插入图片描述
在catkin_ws目录下打开终端,输入

roslaunch darknet_ros darknet_ros.launch

在这里插入图片描述
再打开一个终端

rosrun local_vedio_detect vediopub

在这里插入图片描述
最后就能得到上图的检测结果

有什么问题在下面留言哦,我看到了解答

参考博客:
ROS中订阅和发布视频中的图像消息

### 回答1: 树莓派是一款小型的单板电脑,它拥有低功耗、廉价以及强大的硬件性能,非常适合进行一些物联网、嵌入式系统的开发和实验。而PyQt是一个Python语言的GUI框架,可以帮助开发者快速构建出美观且功能丰富的图形界面。而YOLO(You Only Look Once)是一种非常先进的目标检测算法,可以在图像或视频中实时识别出多个对象。 结合树莓派、PyQt和YOLO的技术,我们可以实现一个视频识别的应用。首先,我们需要在树莓派上安装相关的软件和库,如OpenCV、YOLO和PyQt等。然后,我们可以使用树莓派的摄像头来获取视频流,并将其传输到程序中进行处理。 在PyQt的界面中,我们可以添加一个视频播放窗口,用于显示实时的视频画面。然后,我们利用YOLO算法对每一帧的图像进行目标检测识别出其中的物体,并将识别结果实时显示在界面上。这样,我们就能够通过树莓派实现一个视频识别的系统。 该系统可以用于很多应用场景,比如安防监控、智能交通等。当有可疑物体或者行为出现时,系统可以发出警报或者自动采取相应的措施。此外,该系统还可以用于物体计数、行为分析等应用。 总之,结合树莓派、PyQt和YOLO的技术,我们可以实现一个功能强大的视频识别系统,为我们的生活和工作带来更多的便捷和安全。 ### 回答2: 树莓派是一款迷你计算机,集成了硬件和软件资源,可以用于各种创意和技术项目。PyQt是一个Python开发的图形用户界面工具包,可以用来创建交互式的图形界面应用程序。YOLO(You Only Look Once)是一种流行的目标检测算法,可以实现实时视频中的物体检测识别。 结合这三个工具,我们可以在树莓派上实现视频物体识别。首先,我们需要安装和配置PyQt环境,可以通过pip安装相关库。接下来,我们可以使用PyQt创建一个简单的用户界面,例如一个显示视频画面的窗口。 然后,我们需要通过树莓派的摄像头获取视频流。可以使用OpenCV库来访问摄像头,并将每一帧的视频数据传递给YOLO算法进行物体检测识别YOLO算法可以在视频流中实时检测物体,并返回物体的类别和位置信息。 最后,我们可以通过PyQt将检测到的物体信息显示在界面上,例如在视频画面中标出物体的边界框和类别标签。这样,我们就实现了树莓派上的视频物体识别。 需要注意的是,视频物体识别对树莓派的硬件性能有一定要求,尤其是处理实时的视频流。因此,在实际开发中,如果树莓派的性能有限,可能需要做一些优化措施,例如降低视频分辨率或者降低YOLO算法的处理量,以保证系统的稳定性和性能。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值