原文首发于微信公众号【3D视觉工坊】。
一 前言
机器人的视觉系统分为固定场景视觉系统和运动的「手-眼」视觉系统。摄像机与机器人的手部末端,构成手眼视觉系统。根据摄像机与机器人相互位置的不同,手眼视觉系统分为Eye-in-Hand系统和Eye-to-Hand系统。Eye-in-Hand系统的摄像机安装在机器人手部末端(end-effector),在机器人工作过程中随机器人一起运动。Eye-to-Hand系统的摄像机安装在机器人本体外的固定位置,在机器人工作工程中不随机器人一起运动。
Eye-in-Hand系统的在工业机器人中应用比较广泛,随着机械手逐渐接近目标,摄像机与目标的距离越来越小,被测物体位置参数的绝对误差会随之降低。在Eye-in-Hand系统中,采用基于图像的视觉控制、基于位置的视觉控制以及结合两者的混合视觉控制,可以快速有效地标定被测物体的坐标。
手眼标定方法通常分为3类:标准手眼标定、基于旋转运动的手眼标定以及在线手眼标定。以上方法是将摄像机标定与手眼标定分开进行,也有的论文采用的是联合标定法。
本文重点讲解Eye-in-Hand的一般方法,重在阐述其基本原理。
二 Eye-in-Hand
2.1 基础知识准备
此处就不详细展开叙述了。
2.2 Eye-in-Hand基本原理
对目标点的空间三维坐标进行变换的过程中,首先遇到的问题是机器人末端关节坐标系与摄像机坐标系之间的位置变换关系,也就是机器人的手眼位置关系,该关系用符号X表示,具体可以用方程AX=XB求解。其中A表示相邻两次运动时机器人末端关节的变换关系;B表示相邻两次运动时摄像机坐标的相对运动。
下面,简单介绍一下本问题模型中为何会引入AX=XB模型。
<