//----------来自论坛,待消化-------------//
个人理解OpenCV对标定的处理是这样的:
1.打印一幅棋盘图贴到一个平板上,转动该模板,用摄像机拍摄20张(一般多于6张即可,多了结果可以更精确)图片2.对于每一张图片都用cvFindChessboardCorners提取角点坐标,这个函数提取的仅是一个粗略坐标,然后调用cvFindCornerSubPix()来获取精确角点坐标。提出来后可以用cvDrawChessboardCorners画到图片上。
有几张图片,这个过程就重复多少遍。最终提取的20张图片角点坐标全存到N*2维矩阵指针image_points中。
3.初始化定标点的三维坐标,也是20张图片上的角点坐标全赋值。可以认为每张图上对应点的坐标是一样的(Z坐标为0)。角点的三维坐标都存到N*3维矩阵指针object_points中。
4.调用cvCalibrateCamera2求摄像机的内外参数矩阵。对于外参数,该函数实际得到的是N*3维的旋转矢量和N*3维的平移矢量,而不是矩阵。N行的矢量,第i行就对应着第i张图片的外参数。如果想得到3*3的矩阵形式,需要先把第i行的值取出来,再调用函数cvRodrigues2进行转换。
虽然每张图片的物体坐标我们假设是一样的,但是投影坐标坐标不同,所以获得的外参数是不一样的。个人理解,几张图片的参考点是不一样的。都是以模板物理位置为参考点,得到的外参数是摄像机相对于该位置的旋转和平移。
openCV的摄像机标定过程代码参考如下:
http://wiki.opencv.org.cn/index.php/%E6%91%84%E5%83%8F%E5%A4%B4%E6%A0%87%E5%AE%9A