感知定位篇之机器人感知定位元件概述(上)

本文详细介绍了智能机器人中常用的传感器,如视觉传感器(双目相机)、雷达与激光雷达、IMU、GPS、编码器和碰撞检测传感器,强调了它们在环境感知、定位导航、姿态控制和安全保护中的关键作用。
摘要由CSDN通过智能技术生成

 欢迎关注微信公众号 “四足机器人研习社”,本公众号的文章和资料和四足机器人相关,包括行业的经典教材、行业资料手册,同时会涉及到职业知识学习及思考、行业发展、学习方法等一些方面的文章。

目录

|0.概述

|1.常用传感元件

1.1视觉传感器

1.2雷达与激光雷达

1.3.IMU

1.4.扭矩传感器

1.5、GPS及其衍生概念

1.6编码器

1.7、碰撞检测传感器


|0.概述

    

图片

无人车部分传感器布置图

        智能机器人的感知系统相当于人的五官和神经系统,是机器人获取外部环境信息及进行内部反馈控制的工具

        感知系统将机器人各种内部状态信息和环境信息从信号转变为机器人自身或者机器人之间能够理解和应用的数据、信息甚至知识,它与机器人控制系统和决策系统组成机器人的核心。

        从维度上划分,环境感知技术可以分为二维环境感知技术与三维环境感知技术。二维环境感知关注的是在平面上呈现的信息,而三维环境感知是指以采集并解析周围环境三维信息的方式来获取目标的三维属性和状态。

        从检测对象的不同上划分,可分为内部传感器和外部传感器。内部传感器主要用来检测机器人本身状态(如机械臂臂间角度,机器人位置姿态),多为检测位置和角度的传感器。外部传感器主要用来检测机器人所处环境(如是周围什么物体,离物体的距离有多远等)及状况(如抓取的物体是否滑落)的传感器。具体有物体识别传感器、物体探伤传感器、接近觉传感器、距离传感器、力觉传感器,听觉传感器等。

        机器人通常配备了内部传感器和外部传感器,以帮助它感知周围环境并执行任务。这些传感器可以提供机器人所需的关键信息,帮助其导航、避障、定位等。

        内部传感器是安装在设备内部的传感器,用于监测和检测设备本身的各种参数和状态。这些传感器主要用于帮助设备控制系统监控和维护设备的正常运行。在机器人的情况下,内部传感器通常用于监测机器人的内部运行状态、姿势、运动、电池状况等。

 常见的机器人内部传感器包括:

  • 惯性测量单元(IMU):测量加速度、角速度和方向。

  • 编码器:用于测量电机旋转和轮子转动角度。

  • 电池传感器:监测电池状态、电量和充电情况。

  • 温度传感器:检测机器人内部的温度。

  • 电流传感器:监测电机电流等参数。

  • 压力传感器:用于检测液体或气体的压力。

  • 振动传感器:监测机器人的振动情况。

      这些内部传感器能够为机器人系统提供必要的反馈信息,以确保机器人的正常运行和安全性。通过实时监测内部状态,机器人可以做出相应调整,优化性能并避免潜在故障。

        外部传感器是安装在设备外部,用于感知和监测设备周围环境的传感器。在机器人领域中,外部传感器起着至关重要的作用,帮助机器人感知周围环境、导航、避障以及与外部世界交互。

常见的机器人外部传感器包括:

  • 摄像头:用于视觉感知和图像处理,帮助机器人识别目标、导航和执行任务。

  • 激光雷达(LIDAR):用于测量距离和创建环境地图,帮助机器人定位、避障和导航。

  • 超声波传感器:用于测量距离和检测障碍物,帮助机器人避障。

  • 红外传感器:用于检测物体的距离和温度等信息,常用于避障和检测目标。

  • 气体传感器:用于检测有害气体或环境空气质量。

  • GPS接收器:用于定位机器人的全球位置信息。

  • 压力传感器:用于检测外部压力变化。

  • 温湿度传感器:监测外部环境的温度和湿度。

        这些外部传感器可以为机器人提供丰富的环境信息,帮助机器人实时感知和理解周围的环境,从而做出适当的决策和行动。机器人通过外部传感器获取的信息可以帮助其完成各种任务,并与外部世界进行有效互动。

|1.常用传感元件


 

1.1视觉传感器

图片

双目相机

        机器视觉技术是智能机器人实时感知并理解周围环境的另一重要途径,机器视觉系统使用视觉传感器获得被测物体的特征图像,通过对特征图像进行分析处理提取所需信息。

        根据所获得的图像信息类型,视觉传感器可以分为普通RGB相机和深度相机两种。后者将距离信息加入到前者所获取的二维图像中,得到了三维图像38]。目前,国内外在使用RGB相机进行环境感知方面做了很多研究,已经应用于农作物和杂草识别、农产品品质检测等方面。但仅依靠单目相机无法满足某些场景对深度(距离)信息的需求,还需要与其他能够获取距离信息的传感器(如超声波位置传感器等)进行组合。因此,基于单个深度相机的三维环境感知技术成为了当前的研究热点。

        常见的深度相机可以分为双目相机、结构光相机和TOF相机。其中双目相机是通过不同位置的两个摄像头拍摄同一幅场景,通过算法立体匹配出相应像点,从而计算出视差,然后基于三角测量原理恢复深度(距离)信息,因此双目相机也可称为立体相机。现有的立体匹配技术主要包括基于区域的立体匹配和基于全局的立体匹配,但随着深度学习的不断发展,深度学习也已经在立体匹配中取得了一定的进展,卷积神经网络已被用于解决立体匹配的问题。在不断取得发展进步的同时,立体匹配技术也存在一定的局限性,例如依赖于图像中的纹理或特征来找到对应点的立体匹配技术在纹理缺乏或存在重复纹理的区域,可能会面临匹配失败或产生错误的深度估计。与此同时,在处理高分辨率图像时,立体匹配算法在计算上非常复杂。此外,物体之间的遮挡也会导致立体匹配失败或深度估计不准确。与双目相机不同,结构光相机和TOF相机则是使用调制光直接获得深度(距离)信息

        在传感器工作原理方面,单个RGB相机与双目深度相机的成像与最终工作效果受到光照、角度等因素的影响。而TOF与结构光类型的深度相机的工作原理与激光雷达具有一定的共通性,支持全天连续作业,但该类型的深度相机反射率受到灰尘、雨雪等因素的影响

        使用视觉传感器感知三维环境时,不同类型的设备所涉及到的关键技术也有所不同。使用双目相机时,左右图像的匹配和校准直接影响到深度信息的准确性。而使用TOF型和结构光类型的深度相机时,对三维点云数据的处理则是影响感知效果的关键。目前国内外对于深度相机在农业领域应用进行了大量研究,所使用的几种具有代表性的深度相机包括:Microsoft公司的Kinect系列相机、英特尔公司的Real Sense系列相机、Orbec公司的Astra系列相机,以及ZEDIZED Mini相机等。

几点说明:

1、二维视觉传感器概念

        二维视觉传感器主要就是一个摄像头,它可以完成物体运动的检测以及定位等功能,二维视觉传感器已经出现了很长时间,许多智能相机可以配合协调工业机器人的行动路线,根据接收到的信息对机器人的行为进行调整。

机器视觉技术是智能机器人实时感知并理解周围环境的另一重要途径,机器视觉系统使用视觉传感器获得被测物体的特征图像,通过对特征图像进行分析处理提取所需信息。

2、三维视觉传感器

        最近三维视觉传感器逐渐兴起,三维视觉系统必须具备两个摄像机在不同角度进行拍摄,这样物体的三维模型可以被检测识别出来。相比于二维视觉系统,三维传感器可以更加直观地展现事物。

3.RGB相机和RGBD相机区别

    传统的RGB彩色普通相机称为2D相机,只能拍摄相机视角内的物体,没有物体到相机的距离信息,只能凭感觉感知物体的远近,没有明确的数据.

    RGB-D深度相机(又称3D相机,其中D代表Depth为深度信息)可获取物体到相机的距离信息,加之2D平面的X,Y坐标,可计算出每个点的三维坐标,以此我们可推断深度相机的应用,如三维重建、目标定位、识别

    

4.单目相机、双目相机和RGB-D相机对比

        单目相机、双目相机和RGB-D相机是计算机视觉领域常用的三种视觉传感器。它们分别有不同的优点和应用场景。

        首先,单目相机指的是只有一个摄像头的相机。单目相机具备较低的成本和体积,能够以较低的复杂度获取图像。但是由于只有一个摄像头,单目相机无法直接获取深度信息,只能通过图像处理算法进行间接计算,因此其深度信息的精度相对较低。

        而双目相机是指具备两个摄像头的相机。双目相机能够通过摄像头之间的距离差异来计算物体的深度信息,可以获得较高精度的深度估计。双目相机还可以获取图像的立体视觉信息,能够在人机交互、3D重建等领域有广泛应用。但是由于需要两个摄像头,双目相机的成本和系统复杂度相对较高。

    RGB-D相机则是指结合了RGB(红绿蓝)彩色图像和深度图像的相机。RGB-D相机能够在实时采集图像的同时获取高质量的深度图像,无需进行额外的计算。它具备较高的深度估计精度和较低的延迟,广泛应用于室内导航、机器人、增强现实等领域。然而,相比于单目相机和双目相机,RGB-D相机的成本相对较高,对于室外环境等一些特殊场景可能存在一定的局限性。

1.2雷达与激光雷达

        激光雷达(LiDAR【Light Detection and Ranging】)是激光探测及测距系统的简称,而雷达是英文Radar的音译,源于radio detection and ranging的缩写,意思为"无线电探测和测距",即用无线电的方法发现目标并测定它们的空间位置

        激光雷达相比与微波雷达,激光雷达具有分辨率高、隐蔽性好、抗有源干扰能力强、低空探测性能好、体积小、质量轻。激光雷达的缺点主要是工作时受天气和大气影响大,在大雨、浓烟、浓雾等坏天气里,衰减急剧加大,传播距离大受影响,其次,由于激光雷达的波束极窄,在空间搜索目标非常困难,只能在较小的范围内搜索、捕获目标。

在机器人中,我们常用的是激光雷达,在无人车上则常常配备激光雷达和若干个毫米波雷达

1.激光雷达主要感知设备与关键技术

图片

激光雷达

        激光雷达通过主动发射激光并接收返回的激光来实现感知周围环境的功能,根据扫描结构的类型可以分为固态式、机械旋转式和混合式三种;而根据载荷平台的不同,又可以分为机载激光雷达、地面激光雷达和车载(移动))激光雷达三种,农业机器人主要使用的是车载类型,此外,根据雷达线束数目可以将激光雷达分为单线与多线激光雷达。一般情况下单线激光雷达只能实现平面式扫描,虽然通过多个单线激光雷达的组合或者加装旋转云台的方式也能实现对三维环境的感知,但目前还无法获得与多线激光雷达一样的检测效果。

        对于目标空间形状、竖直方向上的环境信息不敏感的结构化程度较高的场合,通常只考虑一个平面上的环境信息,此时单线激光雷达由于具有成本较低、数据结构简单的特点成为了很多研究人员的选择I票价。但很多时候农业轮式机器人工作时需要考虑树干被遮挡、作业环境的空间干涉以及作业特征提取等问题,此时只使用单线激光雷达无法满足作业要求。

        随着自动驾驶行业的不断发展,国内外对多线激光雷达的研究取得了显著进步。随着技术的成熟和价格的逐渐下降,多线激光雷达在农业领域的应用也越来越常见,例如使用多线激光雷达获取标准化枸杞种植园的作物信息。比较有代表性的激光雷达产品有Velodyne公司的VLP-16型和VLP-32型激光雷达传感器、SICK公司的LMS系列激光扫描仪传感器以及中国大疆Livox公司的Mi-40型和Mi-100型激光雷达传感器等。在使用多线激光雷达感知三维环境信息时,涉及到的关键技术包括传感器的标定和校准、三维点云数据的预处理、特征提取和目标检测与识别等。其中为提高点云数据的质量和准确性,三维点云数据的预处理技术包括对所获取点云数据的滤波、降噪、移动物体去除和地面点云分割等。

1.3.IMU

图片

        IMU 是惯性测量单元(Inertial Measurement Unit)的缩写。它是一种电子设备,用于测量和报告物体的三个基本线性运动(加速度)和三个基本角运动(角速度)。IMU无论大小从超小型的MEMS传感器,到高精度的激光陀螺,其原理都是采用惯性定律实现的,IMU 通常包括一组加速度计和陀螺仪,他们是惯性系统的核心部件,是影响惯性系统性能的主要因素。此外,有时还包括磁力计。

IMU 的主要组件包括:

加速度计(Accelerometer):用于测量物体的加速度。加速度是速度随时间的变化率,因此通过对加速度的积分可以得到速度,再积分一次得到位移。

陀螺仪(Gyroscope):用于测量物体的角速度,即物体绕其轴旋转的速率。通过对角速度的积分可以得到角度。

磁力计(Magnetometer):用于测量物体周围的磁场。这对于确定物体的朝向在地球坐标系中的方向很有帮助。

注意:IMU(惯性测量单元)的轴数指的是它测量的运动方向的数量。

1.三轴的IMU一般只有3轴陀螺仪,其因为只有一个3轴陀螺仪,所以只能感知载体roll、pitch、yawl共3个自由度的姿态信息。

2.六轴IMU在3轴IMU的基础上加装了3轴加速度计,因此在感知载体姿态的基础上,还能感知载体3个自由度上的加速度信息。

3.九轴IMU在6轴IMU的基础上加装了3轴磁强计,由于3轴陀螺仪只能估计载体自身的相对位姿变化(通过加速度计也可获得载体的绝对roll和pitch),单凭3轴陀螺仪无法获取载体的全部姿态信息,而通过3轴磁强计就可以,本质上磁强计的感知原理类似于指南针。

        IMU通常被用于测量和跟踪物体的运动,为导航、姿态控制、动作捕捉等提供数据,被广泛应用于控制系统,用于测量和维持物体的姿态。例如,飞行器、机器人和虚拟现实设备可以使用IMU来实时调整其姿态,以响应用户的操作或环境变化。

        IMU虽然不受环境影响,但是存在累积误差问题,长时间运行容易导致定位误差逐渐增大,因此常常需要和其他传感器进行搭配使用

1.4.扭矩传感器

图片

扭矩传感器

        扭矩传感器,也称为力矩传感器、扭力传感器、转矩传感器、扭矩仪,可分为动态和静态两类。其中,动态扭矩传感器还可以被称为转矩传感器、转矩转速传感器、非接触扭矩传感器、旋转扭矩传感器等。扭矩传感器用于检测各种旋转或非旋转机械部件上的扭转力矩。它将扭矩的物理变化转换为精确的电信号。扭矩传感器可应用于制造粘度计、电动(气动、液力)扭力扳手等领域,具有精度高、频响快、可靠性好和寿命长等优点。

        力扭矩传感器是一种可以让机器人知道力的传感器,可以对机器人手臂上的力进行监控,根据数据分析,对机器人接下来行为作出指导。

        根据所测力的维数不同,力传感器可被分为单轴力传感器和多轴力传感器

        单轴力传感器指测量单一维数方向上的力或力矩,同理多轴力传感器就是可以检测多个维数方向上的力或力矩。下图中,左边两个为单轴力传感器,右边两个为多轴力传感器。

图片

力传感器

        六维力和力矩传感器指的是一种能够在笛卡尔坐标系中同时测量力和力矩并且可以各三个分量的转换成为电信号的器件。

图片

 六维力和力矩传感器定义图

        根据感力原件的不同,传感器主要分为三类:应变式力传感器、光学式传感器以及压电式力传感器

应变式力传感器:采用的是硅应变片或金属箔,本质是材料本身发生形变进而转化为阻值变化;

光学式传感器则是通过光栅反映形变,再转化成力;

压电式传感器是将被测物理量变化转换成压电材料因受机械力产生静电电荷或电压变化的传感器,可分为电容和压电两种,电容是通过极距的变化导致电压变化,压电则是通过形变改变电荷。

1.5、GPS及其衍生概念

图片

GPS模块

        GPS是指利用GPS卫星,向全球各地全天候、实时性地提供三维位置、三维速度等信息的一种无线电导航定位系统。

        如今,在智能机器人的导航定位技术应用中,一般采用伪距差分动态定位法,用基准接收机和动态接收机共同观测4颗GPS卫星,按照一定的算法即可求出某时某刻机器人的三维位置坐标。差分动态定位消除了星钟误差,对于在距离基准站1000km的用户,可以消除星钟误差和对流层引起的误差,因而可以显着提高动态定位精度。但是因为在移动导航中,移动GPS接收机定位精度受到卫星信号状况和道路环境的影响,同时还受到时钟误差、传播误差、接收机噪声等诸多因素的影响,因此,单纯利用GPS导航存在定位精度比较低、可靠性不高的问题,所以在机器人的导航应用中通常还辅以磁罗盘、光码盘和GPS的数据进行导航。另外,GPS导航系统也不适用在室内或者水下机器人的导航中以及对于位置精度要求较高的机器人系统。

        RTK是实时动态测量技术(Real Time Kinematic)的简称,是以载波相位观测为根据的实时差分GPS(RTDGPS)技术,它是测量技术发展里程中的一个突破,它由基准站接收机、数据链、流动站接收机三部分组成。在基准站上安置1台接收机为参考站,对卫星进行连续观测,并将其观测数据和测站信息,通过无线电传输设备,实时地发送给流动站,流动站GPS接收机在接收GPS卫星信号的同时,通过无线接收设备,接收基准站传输的数据,然后根据相对定位的原理,实时解算出流动站的三维坐标及其精度(即基准站和流动站坐标差△X、△Y、△H,加上基准坐标得到的每个点的WGS-84坐标,通过坐标转换参数得出流动站每个点的平面坐标X、Y和海拔高H)。

        GNSS的全称是全球导航卫星系统(Global Navigation Satellite System),GNSS是Global Navigation Satellite System)全球卫星导航系统,是对北斗系统、GPS、GLONASS、Galileo系统等这些单个卫星导航定位系统的同一称谓,也可指代他们的增强型系统,又指代所有这些卫星导航定位系统及其增强型系统的相加混合体,也就是说它是由多个卫星导航定位及其增强型系统所拼凑组成的大系统, GNSS是以人造卫星作为导航台的星级无线电导航系统,为全球陆、海、空、天的各类军民载体提供全天候、高精度的位置、速度和时间信息,因为它又称为天基定位、导航和授时系统。

1.6编码器

        编码器是一种将旋转部件位置、位移物理量转换成一串数字脉冲信号的旋转式传感器,这些脉冲信号被控制系统采集、处理,发出一系列指令,调整改变设备的运行状态。如果编码器与齿轮条或螺旋丝杠结合在一起,也可用于测量直线运动部件的位置、位移物理量。

按照不同的特征,编码器分类情况如下:

码盘和码尺:直线位移转换成电信号的编码器称为码尺,角位移转换成电信的为码盘。

增量型编码器:提供位置、角度和圈数等信息,以每圈脉冲数定义分别率。

绝对值型编码器:以角度增量的方式提供位置、角度和圈数等信息,每个角度增量赋予唯一的编码。

混合式绝对值编码器:混合式绝对值编码器输出两组信息:一组信息用于检测磁极位置,带有绝对信息功能;另一组则完全同增量式编码器的输出信息。

1.7、碰撞检测传感器

        工业机器人尤其是协作机器人最大的要求就是安全,要营造一个安全的工作环境,就必须让机器人识别什么事不安全。一个碰撞传感器的使用,可以让机器人理解自己碰到了什么东西,并且发送一个信号暂停或者停止机器人的运动。而在足式机器人中,为了判断机器人腿部末端是否着地,往往也会在足端加装传感器。

  • 30
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
We review the use of factor graphs for the modeling and solving of large-scale inference problems in robotics. Factor graphs are a family of probabilistic graphical models, other examples of which are Bayesian networks and Markov random fields, well known from the statistical modeling and machine learning literature. They provide a powerful abstraction that gives insight into particular inference problems, making it easier to think about and design solutions, and write modular software to perform the actual inference. We illustrate their use in the simultaneous localization and mapping problem and other important problems associated with deploying robots in the real world. We introduce factor graphs as an economical representation within which to formulate the different inference problems, setting the stage for the subsequent sections on practical methods to solve them.We explain the nonlinear optimization techniques for solving arbitrary nonlinear factor graphs, which requires repeatedly solving large sparse linear systems. The sparse structure of the factor graph is the key to understanding this more general algorithm, and hence also understanding (and improving) sparse factorization methods. We provide insight into the graphs underlying robotics inference, and how their sparsity is affected by the implementation choices we make, crucial for achieving highly performant algorithms. As many inference problems in robotics are incremental, we also discuss the iSAM class of algorithms that can reuse previous computations, re-interpreting incremental matrix factorization methods as operations on graphical models, introducing the Bayes tree in the process. Because in most practical situations we will have to deal with 3D rotations and other nonlinear manifolds, we also introduce the more sophisticated machinery to perform optimization on nonlinear manifolds. Finally, we provide an overview of applications of factor graphs for robot perception, showing the broad impact factor graphs had in robot perception. (只有第一章内容,我也才发现)

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值