realsense D435 D435i D415深度相机在ros下获得RGB图、左右红外摄像图、深度图、IMU数据

首先你要你确保你的相机驱动已经安装好,环境配置可以看我的另一篇文章:https://blog.csdn.net/weixin_46195203/article/details/119205851

**第一步:**新建一个文件 informationread(此处建议文件名为:informationread,这样就不用单独修改Makelist中的信息了)
**第二步:**在 informationread文件夹下新建两个文件分别为build 和 src 还有一个CMakeLists.txt文件
**第三步:**在CMakeLists.txt文件中复制一下代码

cmake_minimum_required(VERSION 3.1.0)

project(alldata)

set( CMAKE_CXX_COMPILER "g++" )
set( CMAKE_BUILD_TYPE "Release" )
set( CMAKE_CXX_FLAGS "-std=c++11 -O3" )
# Enable C++11
set(CMAKE_CXX_STANDARD 11)
set(CMAKE_CXX_STANDARD_REQUIRED TRUE)

FIND_PACKAGE(OpenCV REQUIRED)
FIND_PACKAGE(realsense2 REQUIRED)

include_directories( ${OpenCV_INCLUDE_DIRS} )
include_directories( ${realsense2_INCLUDE_DIRS})
add_executable(informationread src/GetAlldata.cpp)

target_link_libraries(informationread ${OpenCV_LIBS} ${realsense2_LIBRARY})

**第四步:**将以下代码复制到一个.cpp文件 放到src文件中(此处建议cpp文件名为:GetAlldata.cpp,这样就不用单独修改Makelist中的信息了)

#include <librealsense2/rs.hpp>

// include OpenCV header file
#include <opencv2/opencv.hpp>

using namespace std;
using namespace cv;

#define width 640 
#define height 480 
#define fps 30


int main(int argc, char** argv) try
{
    // judge whether devices is exist or not 
	rs2::context ctx;
	auto list = ctx.query_devices(); // Get a snapshot of currently connected devices
	if (list.size() == 0) 
		throw std::runtime_error("No device detected. Is it plugged in?");
	rs2::device dev = list.front();
    
    //
    rs2::frameset frames;
    //Contruct a pipeline which abstracts the device
    rs2::pipeline pipe;//建立一个通讯管道//https://baike.so.com/doc/1559953-1649001.html pipeline的解释
    //Create a configuration for configuring the pipeline with a non default profile
    rs2::config cfg;
    //Add desired streams to configuration
    cfg.enable_stream(RS2_STREAM_COLOR, width, height, RS2_FORMAT_BGR8, fps);//彩色图像
    cfg.enable_stream(RS2_STREAM_DEPTH, width, height, RS2_FORMAT_Z16,fps);//深度图像
    cfg.enable_stream(RS2_STREAM_INFRARED, 1, width, height, RS2_FORMAT_Y8, fps);//红外图像1
    cfg.enable_stream(RS2_STREAM_INFRARED, 2, width, height, RS2_FORMAT_Y8, fps);//红外图像2
    
    //若想获得imu数据将一下两行代码取消注释,并修改imu的赋值
      //cfg.enable_stream(RS2_STREAM_ACCEL, RS2_FORMAT_MOTION_XYZ32F);//陀螺仪
      //cfg.enable_stream(RS2_STREAM_GYRO, RS2_FORMAT_MOTION_XYZ32F);//陀螺仪
      int imu = 0;//若想获取imu数据,此处设置为1
    // get depth scale 
    // float depth_scale = get_depth_scale(profile.get_device());

    // start stream 
    pipe.start(cfg);//指示管道使用所请求的配置启动流

    
    while(1)
    {
        frames = pipe.wait_for_frames();//等待全部配置的流生成框架

        // Align to depth 
        rs2::align align_to_depth(RS2_STREAM_DEPTH);
        frames = align_to_depth.process(frames);
    
        // Get imu data
       if(imu){
 	if (rs2::motion_frame accel_frame = frames.first_or_default(RS2_STREAM_ACCEL))
        {
            rs2_vector accel_sample = accel_frame.get_motion_data();
            std::cout << "Accel:" << accel_sample.x << ", " << accel_sample.y << ", " << accel_sample.z << std::endl;
        }
        if (rs2::motion_frame gyro_frame = frames.first_or_default(RS2_STREAM_GYRO))
        {
            rs2_vector gyro_sample = gyro_frame.get_motion_data();
            std::cout << "Gyro:" << gyro_sample.x << ", " << gyro_sample.y << ", " << gyro_sample.z << std::endl;
        }
      }
        //Get each frame
        rs2::frame color_frame = frames.get_color_frame();
        rs2::frame depth_frame = frames.get_depth_frame();
        rs2::video_frame ir_frame_left = frames.get_infrared_frame(1);
        rs2::video_frame ir_frame_right = frames.get_infrared_frame(2);
        
        
        // Creating OpenCV Matrix from a color image
        Mat color(Size(width, height), CV_8UC3, (void*)color_frame.get_data(), Mat::AUTO_STEP);
        Mat pic_right(Size(width,height), CV_8UC1, (void*)ir_frame_right.get_data());
        Mat pic_left(Size(width,height), CV_8UC1, (void*)ir_frame_left.get_data());
        Mat pic_depth(Size(width,height), CV_16U, (void*)depth_frame.get_data(), Mat::AUTO_STEP);
        
        // Display in a GUI
        namedWindow("Display Image", WINDOW_AUTOSIZE );
        imshow("Display Image", color);
        waitKey(1);
        imshow("Display depth", pic_depth*15);
        waitKey(1);
        imshow("Display pic_left", pic_left);
        waitKey(1);
        imshow("Display pic_right",pic_right);
        waitKey(1);
    }
    return 0;
}

// error
catch (const rs2::error & e)
{
    std::cerr << "RealSense error calling " << e.get_failed_function() << "(" << e.get_failed_args() << "):\n    " << e.what() << std::endl;
    return EXIT_FAILURE;
}
catch (const std::exception& e)
{
    std::cerr << e.what() << std::endl;
    return EXIT_FAILURE;
}

代码中默认是D415 或者D435 这种不带imu的相机所以没有输出imu信息
如果你想要imu信息 按照指示进行小修改便可。

**第四步:**在build文件中打开命令窗口输入

cmake ..
make -j4
./informationread

到此便可以看到实时运行结果了

  • 3
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
### 回答1: 很抱歉,我无法回答你关于此问题的具体实现细节,但可以告诉你在ROS系统中,可以使用开源代码库例如gmapping、hector_mapping等来实现二维栅格地构建。同时,可以使用ROS的相关工具来进行相机和激光雷达数据的融合。具体实现方案需要根据具体情况进行定制。 ### 回答2: 在ROS系统下,基于C语言编写的程序可以实现Intel RealSense D435i相机和Rplidar A1激光雷达数据融合,并实时构建二维栅格地。 首先,需要在ROS系统下安装和配置好RealSense和Rplidar的ROS软件包。可以使用apt-get命令或者通过源码编译安装。 接下来,在ROS工作空间中创建一个包,命名为"mapping"。在该包下创建一个launch文件夹,并在该文件夹下创建一个"mapping.launch"文件,用于启动相机和激光雷达的驱动程序。 在"mapping.launch"文件中,引入RealSense和Rplidar的驱动程序,将相机和激光雷达的数据进行联合融合,构建二维栅格地。以下为一个简化的示例代码: ```xml <launch> <node name="realsense_node" pkg="realsense2_camera" type="realsense2_camera_node"> ... <!-- RealSense相机参数配置 --> ... </node> <node name="rplidar_node" pkg="rplidar_ros" type="rplidarNode"> ... <!-- Rplidar激光雷达参数配置 --> ... </node> <node name="fusion_node" pkg="mapping" type="fusion_node"> ... <!-- 数据融合算法 --> ... </node> </launch> ``` 在"fusion_node"节点中,可以编写C语言代码实现数据的融合和地构建。具体的实现步骤包括: 1. 订阅相机和激光雷达的话题,获取它们的数据; 2. 对相机和激光雷达的数据进行配准和校正,确保数据在同一坐标系下; 3. 将配准后的相机和激光雷达数据融合,可以使用滤波算法和传感器数据融合算法; 4. 根据融合后的数据构建二维栅格地,可以使用建算法,如栅格地算法、激光分段匹配算法等; 5. 发布二维栅格地的话题,供其他节点使用。 上述步骤中,关键的环节是数据融合和地构建算法的实现。具体使用哪些算法取决于实际需要和环境情况,可以根据具体需求选择合适的算法。 最后,启动ROS系统,执行"mapping.launch"文件,即可实时构建二维栅格地的程序。 ### 回答3: 在ROS系统下使用C语言编写Intel RealSense D435i相机和RplidarA1激光雷达数据融合构建实时二维栅格地的程序可以按照以下步骤进行: 1. 首先,需要在ROS系统中安装并配置Intel RealSense D435i相机和RplidarA1激光雷达的驱动程序和ROS包。安装过程可以参考官方文档。 2. 创建一个ROS工作空间,并在该工作空间中创建一个ROS程序包,命名为"mapping"。 3. 在程序包的src目录下创建一个名为"mapping_node.c"的C语言源文件,并编写程序来完成数据融合和地构建的任务。 4. 在源文件中,首先需要包含ROS和相应的依赖库的头文件,以及定义ROS节点的名称和消息类型。 5. 创建用于订阅RealSense相机数据和Rplidar激光雷达数据ROS话题的订阅器,并设置回调函数来处理接收到的数据。 6. 在回调函数中,对接收到的RealSense相机数据进行处理,获取相机像信息和深度像信息。 7. 同时,对接收到的Rplidar激光雷达数据进行处理,获取激光雷达扫描数据。 8. 将相机像、深度像和激光雷达扫描数据进行数据融合,可以选择使用点云库,如PCL,对数据进行处理和融合。 9. 根据融合后的数据,进行地构建。可以使用开源库,如Occupancy Grid Mapping算法,来实现栅格地的构建。栅格地可以用于表示环境中的障碍物和自由空间。 10. 最后,将构建的二维栅格地发布到ROS话题,供其他节点使用。 以上是一个简单的程序框架,在具体实现中还需要根据需求进行代码的完善和调试。此外,在编写代码的过程中,需要注意数据类型的转换和数据处理的精确性,以确保程序的准确性和稳定性。同时,也可以根据实际需求添加更多的功能,如障碍物检测和路径规划等。
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值