Visp_ros学习笔记(二):在Gazebo环境下实现Pionner3dx移动机器人视觉伺服仿真

开发环境:Unbuntu 18.04 LTS + ROS Melodic + ViSP 3.3.1

  本文主要介绍了如何实现Pionner3dx移动机器人视觉伺服仿真,仿真环境是ROS+Gazebo,控制对象是Pioneer3dx(先锋)移动机器人,控制算法借助visp_ros工具实现。视觉伺服控制部分主要参考了visp_ros中的例程tutorial-ros-pioneer-visual-servo.cpp,但由于原本的例程是需要对真实的pionner机器人进行控制,对于没有pionner机器人的同学而言就无法使用了,所以我借助gazebo仿真工具,通过仿真的方法创建一个虚拟的pionner机器人并通过ros实现对机器人的运动控制。整个工程项目我已经上传至github:https://github.com/EmptyCity1995/visual_servo
  首先通过一个视频,简单的演示一下视觉伺服控制的效果。

视觉伺服仿真效果演示

  可以看到随着目标物体的移动,机器人会自动调整自己的位姿以保证目标始终处于相机的中心。在机器人相机视角观察的效果是这样的,一开始目标物体偏离相机视野中心位置
在这里插入图片描述
  经过视觉伺服控制机器人运动之后,目标物体回到相机视野中心,绿色线条表示视野中心,红色十字表示目标物体的中心。
在这里插入图片描述
  下面介绍整个工程实现方法,文件结构如下所示

visual_servo/
├── ar_tags
│ ├── blend
│ ├── images
│ ├── model
│ │ └── marker0
│ │ ├── materials
│ │ │ └── textures
│ │ └── meshes
│ └── scripts
├── include
│ └── visual_servo
├── launch
├── src
├── urdf
└── world

  首先需要配置环境,本项目的开发环境为Ubuntu18.04 + ROS Melodic + Visp_ros,所以要把必要的工具包都安装好,关于ViSP,visp_version, visp_ros的安装方法可参见这篇博客:Ubuntu18.04环境下visp、visp_ros、vision_visp手动安装完整指南
  然后就是下载本文的工程文件了,需要将本工程放到ROS的工作空间中

cd ~/catkin_ws/src
git clone git://github.com/EmptyCity1995/visual_servo.git
git clone https://gitee.com/navigation_planning/pioneer_simulator.git
sudo apt install ros-melodic-p2os-urdf
sudo apt install ros-melodic-gazebo-plugins
sudo apt install ros-melodic-gazebo-ros-control

  编译一下

cd ~/catkin_ws
catkin_make
source ./devel/setup.bash

  利用ar_tags工具创建一个目标模型用于视觉伺服

cd ~/catkin_ws/src/visual_servo/ar_tags/scripts
./generate_markers_model.py -i ../images/

  此时在gazebo模型库中会增加一个名为target的模型,路径为~/.gazebo/models/target,生成好模型文件后,我们不着急添加,先把机器人模型加载到仿真环境中

roslaunch visual_servo gazebo_pioneer_amcl.launch

  此时程序会自动打开gazebo仿真环境,并添加一个机器人进去
在这里插入图片描述

  我们可以通过insert添加我们的目标模型

在这里插入图片描述
  最后则是编译和运行视觉伺服程序

cd ~/catkin_ws/src/visual_servo/src/
mkdir -p build
cd build
cmake ..
make 
./tutorial-ros-pioneer-visual-servo

  此时屏幕中会出现一个窗口,显示了机器人自带相机所捕捉到的画面
在这里插入图片描述
  我们用鼠标点击目标模型中的黑色圆圈部分,用于选中视觉伺服的跟踪目标,并开始视觉伺服。小车会自动移动,最终是的目标物体处于相机视野的中央位置
在这里插入图片描述
  在gazebo环境中移动目标物体,可以发现小车也会跟随目标移动。因为只使用了一个目标点(圆形区域的中心)所以只能对X方向进行约束,视觉伺服效果并不能达到很好,本项目旨在演示视觉伺服的效果和visp_ros+gazebo联合仿真的方法。最后介绍一下视觉伺服控制程序

#include <iostream>
#include <ros/ros.h>
#include <geometry_msgs/Twist.h>

#include <visp/vpCameraParameters.h>
#include <visp/vpDisplayX.h>
#include <visp/vpDot2.h>
#include <visp/vpFeatureBuilder.h>
#include <visp/vpFeatureDepth.h>
#include <visp/vpFeaturePoint.h>
#include <visp/vpHomogeneousMatrix.h>
#include <visp/vpImage.h>
#include <visp/vpImageConvert.h>
#include <visp/vpServo.h>
#include <visp/vpVelocityTwistMatrix.h>
#include <visual_servo/vpSimulatorPioneer.h>//这个头文件中包含了pioneer机器人仿真参数及相关函数的声明
#include <visp_ros/vpROSGrabber.h>
// #include <visp_ros/vpROSRobotPioneer.h>

#if defined(VISP_HAVE_DC1394_2) && defined(VISP_HAVE_X11)
#  define TEST_COULD_BE_ACHIEVED
#endif

#ifdef TEST_COULD_BE_ACHIEVED

int main(int argc, char **argv)
{
   ros::init(argc, argv, "velocity_publisher");//初始化速度话题发布

    // 创建节点句柄
   ros::NodeHandle n;

  // 创建一个Publisher,发布名为/pionner/cmd_vel的topic,消息类型为geometry_msgs::Twist,队列长度10
   ros::Publisher pionner_vel_pub = n.advertise<geometry_msgs::Twist>("/cmd_vel", 10);
   geometry_msgs::Twist vel_msg;//创建一个geometry_msgs::Twist类型的速度消息

  try {
    vpImage<unsigned char> I; // Create a gray level image container
    double depth = 1.; //创建一个期望的距离(目标与小车之间)
    double lambda = 0.6; //视觉伺服增益参数
    double coef = 0.25;// 用于计算目标和小车之间距离的比例参数
   
    vpSimulatorPioneer robot; //创建一个pionner的仿真实例
    
    vpCameraParameters cam; //创建相机参数实例
    
    vpROSGrabber g;//创建图像捕捉实例
    g.setCameraInfoTopic("/camera_rgb/camera_info");//设置相机信息话题
    g.setImageTopic("/camera_rgb/image_raw");//设置图像话题
    g.setRectify(true);

    // Set camera parameters 
    cam.initPersProjWithoutDistortion(600,600,I.getWidth()/2, I.getHeight()/2);//设置相机参数
    g.open(I);//打开图像捕捉实例
    g.acquire(I);//获取第一帧图像

    //创建图像显示器,并显示图像
    vpDisplayX d(I, 10, 10, "Current frame");
    vpDisplay::display(I);
    vpDisplay::flush(I);

    // 创建一个连通区域跟踪器,根据鼠标点击来选择连通区域
    vpDot2 dot;
    dot.setGraphics(true);
    dot.setComputeMoments(true);
    dot.setEllipsoidShapePrecision(0.);  // to track a blob without any constraint on the shape
    dot.setGrayLevelPrecision(0.9);  // to set the blob gray level bounds for binarisation
    dot.setEllipsoidBadPointsPercentage(0.5); // to be accept 50% of bad inner and outside points with bad gray level
    dot.initTracking(I);//跟踪连通区域
    //输出连通区域中心的坐标
    std::cout << "dot_cog_x: " <<  dot.getCog().get_u()
                        << "dot_cog_y: " <<  dot.getCog().get_v()
                        << std::endl;
    std::cout <<"dot_size:"<<dot.m00<<std::endl ;//输出连通区域的一阶图像距,可以表示图像的面积信息
    vpDisplay::flush(I);
    
    //创建一个视觉伺服人物
    vpServo task;
    task.setServo(vpServo::EYEINHAND_L_cVe_eJe) ;//设置视觉伺服计算方法eyeinhand cVe_eJe
    task.setInteractionMatrixType(vpServo::DESIRED, vpServo::PSEUDO_INVERSE) ;//设置交互矩阵类型
    task.setLambda(lambda) ;//设置增益参数
    
    vpVelocityTwistMatrix cVe ;//创建cVe矩阵,描述相机与机器人之间的坐标变换关系
    cVe = robot.get_cVe() ;//从机器人中获取cVe矩阵信息
    task.set_cVe(cVe) ;//将cVe矩阵添加到视觉伺服任务中
    std::cout << "cVe: \n" << cVe << std::endl;//打印cVe矩阵参数

    vpMatrix eJe;//创建eJe矩阵,机器人雅可比矩阵
    robot.get_eJe(eJe) ;//从机器人中获取eJe矩阵信息
    task.set_eJe(eJe) ;//将eJe矩阵添加到视觉伺服任务中
    std::cout << "eJe: \n" << eJe << std::endl;//打印eJe矩阵参数

    // 创建目标中心点的x坐标特征,s_x表示当前位置,s_xd表示期望位置
    vpFeaturePoint s_x, s_xd;

    // 根据相机参数和连通区域中心点的坐标获取当前位置下的x坐标特征
    vpFeatureBuilder::create(s_x, cam, dot);
   
    // 创建期望位置处的x坐标特征,0.5表示x方向是图像中心,0.89是y方向对应的图像位置,depth是空间坐标系下的距离
    s_xd.buildFrom(0.5, 0.89, depth);

    // 把x坐标特征添加到视觉伺服任务中
    task.addFeature(s_x, s_xd) ;

    // 创建目标中心点的z坐标特征log(Z/Zd),s_Z表示当前位置,s_Zd表示期望位置
    vpFeatureDepth s_Z, s_Zd;

    //根据连通区域的面积来估计相机与目标之间的距离,距离的平方与面积成反比例关系,面积约小表示距离越远(近大远小)
    double surface = 1./sqrt(dot.m00/(cam.get_px()*cam.get_py()));
    double Z, Zd;//创建目标中心点的空间距离参数,Z表示当前位置,Zd表示期望位置
    Z = coef * surface ;      //初始化目标与相机之间的距离
    Zd = Z;// 设置期望距离等于当前距离
    std::cout << "Z :" << Z << std::endl; //输出当前位置处的距离信息
    s_Z.buildFrom(s_x.get_x(), s_x.get_y(), Z , 0); // 设置当前位置处的Z坐标特征,因为Z=Zd,所以特征log(Z/Zd)=0
    s_Zd.buildFrom(s_x.get_x(), s_x.get_y(), Zd , 0); // 设置期望位置处的Z坐标特征,因为Z=Zd,所以特征log(Z/Zd)=0
    task.addFeature(s_Z, s_Zd) ;//把Z坐标特征添加到视觉伺服任务中

    vpColVector v; // 创建速度向量

    while(1)
    {
      g.acquire(I);//获取相机图像
      vpDisplay::display(I);//显示相机图像内容
      dot.track(I);//跟踪目标连通区域
      
      vpFeatureBuilder::create(s_x, cam, dot);//更新x坐标特征
      // 更新Z坐标特征
      surface = 1./sqrt(dot.m00/(cam.get_px()*cam.get_py()));
      Z = coef * surface ;
      s_Z.buildFrom(s_x.get_x(), s_x.get_y(), Z, log(Z/Zd)) ;

     //更新cVe矩阵信息
      robot.get_cVe(cVe) ;
      task.set_cVe(cVe) ;
     //更新eJe矩阵信息
      robot.get_eJe(eJe) ;
      task.set_eJe(eJe) ;

      // 根据视觉伺服算法计算控制律
      v = task.computeControlLaw() ;
      //输出速度信息
      std::cout << "Send velocity to the pionner: " << v[0] << " m/s "
                << vpMath::deg(v[1]) << " deg/s" << std::endl;

      // 将速度指令发送到机器人
      vel_msg.linear.x =v[0];
      vel_msg.angular.z =vpMath::deg(v[1]);

        // 发布消息
      pionner_vel_pub.publish(vel_msg);
      ROS_INFO("Publsh turtle velocity command[%0.2f m/s, %0.2f rad/s]", 
          vel_msg.linear.x, vel_msg.angular.z);
          
      std::cout <<"s_x:"<<s_x.get_x()<<std::endl;
      std::cout <<"s_y:"<<s_x.get_y()<<std::endl ;
      std::cout << "dot_cog_x: " <<  dot.getCog().get_u()
                        << "dot_cog_y: " <<  dot.getCog().get_v()
                        << std::endl;
      std::cout <<"Z:"<<Z<<std::endl ;
      std::cout <<"Error:"<<task.getError()[0]<<std::endl;//输出x方向上的误差信息
      
      // 绘制一条绿色的竖线表示x方向上的期望位置
      vpDisplay::displayLine(I, 0, 300, 600, 300, vpColor::green);
      vpDisplay::flush(I);

      // 点击图像退出
      if ( vpDisplay::getClick(I, false) )
        break;
      //当x方向的误差小于阈值时,命令机器人停止运动
      if (abs(task.getError()[0])< 0.001) {
        std::cout << "Reached a small error. We stop the loop... " << std::endl;
        std::cout << "Ending robot thread..." << std::endl;
        vel_msg.linear.x =0;
        vel_msg.angular.z = 0;
        pionner_vel_pub.publish(vel_msg);
        std::cout << "Robot  is stopped" << std::endl;
      }
    };
    //程序结束后,命令小车停止运动
    std::cout << "Ending robot thread..." << std::endl;
    vel_msg.linear.x =0;
    vel_msg.angular.z = 0;
    pionner_vel_pub.publish(vel_msg);
    std::cout << "Robot  is stopped" << std::endl;

    task.print() ;//输出视觉伺服控制信息
    task.kill();//结束视觉伺服控制
  }
  catch(vpException e) {
    std::cout << "Catch an exception: " << e << std::endl;
    
    //有异常抛出时,命令机器人停止运动
    vel_msg.linear.x =0;
    vel_msg.angular.z = 0;
    pionner_vel_pub.publish(vel_msg);
    std::cout << "Robot  is stopped" << std::endl;
    return 1;
  }
}
#else
int main()
{
  std::cout << "You don't have the right 3rd party libraries to run this example..." << std::endl;
}
#endif

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。在这里插入图片描述

评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深视

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值