像素坐标值与实际坐标值的映射

一、 原版

该程序实现了输入一个像素坐标点,然后计算出该像素点实际位置距离摄像头水平距离和垂直距离,即实现了单目摄像头测距。

适用范围:

摄像头固定角度,倾斜照射到地面,目前摄像头为无畸变摄像头。

这里写图片描述
在这里插入图片描述

/*****************************************************************************************************
2018.6.25:视场已经测好,该进行计算了

希腊字母读法
Αα:阿尔法 Alpha
Ββ:贝塔 Beta
Γγ:伽玛 Gamma
Δδ:德尔塔 Delte
Εε:艾普西龙 Epsilon
ζ :捷塔 Zeta
Ζη:依塔 Eta
Θθ:西塔 Theta
Ιι:艾欧塔 Iota
Κκ:喀帕 Kappa
∧λ:拉姆达 Lambda
Μμ:缪 Mu
Νν:拗 Nu
Ξξ:克西 Xi
Οο:欧麦克轮 Omicron
∏π:派 Pi
Ρρ:柔 Rho

*****************************************************************************************************/

#pragma warning(disable:4996)

#include <stdio.h>
#include <time.h>
#include <math.h>
#include <iostream>
#include <io.h>
#include “windows.h”
#include “fstream”

//opencv相关
#include <opencv2/opencv.hpp>
#include <opencv2/video.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv/cv.h>
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/ml/ml.hpp>
#include <opencv2/objdetect/objdetect.hpp> //hog特征的c文件

//自己编写的文件
#include “UART.h”
#include “findline.h”
#include “DrawImage.h”//绘制图形

using namespace std;
using namespace cv;
using namespace cv::ml;

RNG rng(12345);

int main()
{

float Alpha;//俯仰角Αα:阿尔法 Alpha
float Theta;//垂直视场角	西塔 Theta
float Beta;//水平视场角Ββ:贝塔 Beta

//测量出的参数,摄像头俯仰角一变,就会变化
float H1=44.0;//摄像头高度
float Dmin = 19.2;//最短距离
float Dmax = 187.1;//最长距离
float D0 = 29.8;//摄像头坐标与水平面线交点差值


float X0 = 0;//像素坐标值
float Y0 = 0;//像素坐标值

float X1 = 0;//实际距离摄像头水平距离,左负右正
float Y1 = 0;//实际距离摄像头垂直距离
float width = 0;
float height =0;
//中间变量
float d0 = 0;//步进视场角,用来计算离摄像头垂直距离
float B1 = 0;//每个Y1实际水平距离

//画圈半径,便于显示
int radius = 40;
//参数计算
Beta = atan(40.5 / 22.5);//水平视场角β
Alpha = atan(Dmin / H1);//俯仰角
//H2 = Dmin*H1 / Dmin1; //摄像头理论高度
Theta = atan(Dmax / H1) - Alpha;//垂直视场角

cout &lt;&lt; "水平视场角β为:      " &lt;&lt; Beta*180.0 / 3.1415926 &lt;&lt; " 度" &lt;&lt; endl;
cout &lt;&lt; "垂直视场角θ为:      " &lt;&lt; Theta*180.0 / 3.1415926 &lt;&lt; " 度" &lt;&lt; endl;
cout &lt;&lt; "俯仰角α为:          " &lt;&lt; Alpha*180.0 / 3.1415926 &lt;&lt; " 度" &lt;&lt; endl;
cout &lt;&lt; "摄像头实际高度H1为:   " &lt;&lt; H1 &lt;&lt; " 厘米" &lt;&lt; endl;
cout &lt;&lt; "最短距离Dmin为:   " &lt;&lt; Dmin &lt;&lt; " 厘米" &lt;&lt; endl;
cout &lt;&lt; "最长距离Dmax为:   " &lt;&lt; Dmax &lt;&lt; " 厘米" &lt;&lt; endl;



/*Mat srcImage = imread("1.jpg");*/



long int iiii = 1000;
	Mat frame;

	//【1】从摄像头读入视频
VideoCapture capture(1);  //该参数为0,则打开计算机自带摄像头,如果为1则打开外置USB摄像头

while (1)
{  
	iiii++;
	//隔一段时间保存一张图片
	if (iiii &gt;= 100)//通过改变i后面的值来刷新图片界面
	{
		iiii = 0;
		capture &gt;&gt; frame;// //读取当前帧,capture &gt;&gt; frame与capture.read(frame)功能一样,
		if (frame.empty())
		{
			return 0;
		}
		 width = frame.cols;
		 height = frame.rows;

			cout &lt;&lt; "图像宽度" &lt;&lt; width &lt;&lt; endl;
			cout &lt;&lt; "图像高度" &lt;&lt; height &lt;&lt; endl;

		//视场中央线
		line(frame, Point(width / 2, 0), Point(width / 2, height), Scalar(6, 88, 255), 3, LINE_AA);

		line(frame, Point(0, height / 2), Point(width, height / 2), Scalar(6, 88, 255), 3, LINE_AA);

		cout &lt;&lt; "请输入像素坐标值X0(以回车结束):" &lt;&lt; endl;
		cin &gt;&gt; X0;
		cout &lt;&lt; "请输入像素坐标值Y0(以回车结束):" &lt;&lt; endl;
		cin &gt;&gt; Y0;

		cout &lt;&lt; "输入的结果为" &lt;&lt; endl;
		cout &lt;&lt; "当前像素坐标值X0为: " &lt;&lt; X0 &lt;&lt; endl;
		cout &lt;&lt; "当前像素坐标值Y0为   " &lt;&lt; Y0 &lt;&lt; endl;

		Point center(X0, Y0);
		//绘制圆心  
		circle(frame, center, 3, Scalar(0, 255, 0), -1, 8, 0);
		//绘制圆轮廓  
		circle(frame, center, radius, Scalar(155, 50, 255), 3, 8, 0);

		namedWindow("原图", 0);
		imshow("原图", frame);
		waitKey(2);
		waitKey(200);
		waitKey(200);
		waitKey(200);

		d0 = (height - Y0)*Theta / height; //步进小角度
		Y1 = H1*tan(Alpha + d0); //垂直距离

		B1 = (Y1 + D0)*tan(Beta / 2.0);
		X1 = 2.0*B1*(X0 - width / 2.0) / width;
		cout &lt;&lt; "距离摄像头水平距离X1为:    " &lt;&lt; X1 &lt;&lt; " 厘米" &lt;&lt; endl;
		cout &lt;&lt; "距离摄像头垂直距离Y1为:    " &lt;&lt; Y1 &lt;&lt; " 厘米" &lt;&lt; endl;

	}
}

waitKey(0);

}

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179

二、 更新版本(更详细一些的)

在计算机视觉中,如何由单幅二维投影图像确定目标方位及距离是很重要的研究内容,在相机标定、三维重建等很多方面有广泛的应用价值。根据摄像机光学镜头的成像原理,推导出了图像坐标系与物理坐标系对应关系。即只要知道目标点在图像中的像素坐标,就可以推导出目标点与摄像头底部的实际水平和垂直距离。小车通过一个朝向行进路线正前方并向下倾斜的摄像头来获取当前路面上的图像,并根据图像上数字与摄像头相对位置及偏转角度来实现小车的精确定位。

由于摄像头朝向位置是倾斜向下,但又并非完全朝向正下方,获得的图像存在梯形畸变,即出现在图像下方(近端)的物体宽大;出现在图像上方(远端)的物体窄小。此梯形畸变会造成后续的导航线识别及计算出的偏转角度存在较大误差,从而无法达到准确定位和沿线行进的目的。因此直接根据摄像机光学镜头的成像原理以及其他几何关系,(如图5.14、图5.15)可以推导出图像坐标系与实际世界坐标系的映射关系,只需测量出摄像机俯仰角、水平视场角、垂直视场角、摄像头高度、图像底边距摄像头实际垂直距离、图像顶边距摄像头实际垂直距离。

在这里插入图片描述
通过下面的公式即可计算出图像中目标点在实际空间中距离摄像头的水平距离X1和垂直距离Y1。
在这里插入图片描述
实际测试效果图如图5.16。
在这里插入图片描述

后面为了方便使用,把程序封装了一下:


//测量出的参数,摄像头俯仰角一变,就会变化
float H1 = 50.0;//摄像头高度
float Dmin = 25;//最短距离
float Dmax = 250;//最长距离
float D1 = 29.8;//摄像头坐标与水平面线交点差值
float Beta = atan(40.5 / 22.5);//水平视场角β;//水平视场角Ββ:贝塔 Beta

/**********************************************************
*功能:输入图片及像素坐标值,返回摄像头到实际位置的距离(水平,垂直)
*参数:image, 图片

  •  Point_in   像素坐标点
    

返回值:point_out 实际距离,以摄像头中轴线为届,左负右正
************************************************************/
Point2f coordinate_transformation(Mat image, Point2f Point_in)
{

Point2f point_out;
float Alpha;//俯仰角Αα:阿尔法 Alpha
float Theta;//垂直视场角	西塔 Theta

float X0 = Point_in.x;//像素坐标值
float Y0 = Point_in.y;//像素坐标值

float X1 = 0;//实际距离摄像头水平距离,左负右正
float Y1 = 0;//实际距离摄像头垂直距离

float width = image.cols;
float height = image.rows;

//中间变量
float d0 = 0;//步进视场角,用来计算离摄像头垂直距离
float B1 = 0;//每个Y1实际水平距离

//参数计算
Alpha = atan(Dmin / H1);//俯仰角
Theta = atan(Dmax / H1) - Alpha;//垂直视场角

d0 = (height - Y0)*Theta / height; //步进小角度
Y1 = H1*tan(Alpha + d0); //Y1为距离摄像头垂直距离

B1 = (Y1 + D1)*tan(Beta / 2.0);
X1 = 2.0*B1*(X0 - width / 2.0) / width;//X1为距离摄像头水平距离水平距离

point_out.x = X1;
point_out.y = Y1;

return point_out;

}

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
                                </div>
  • 8
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
### 回答1: Kinect中将像素坐标转换成世界坐标的过程,实际上就是人体姿势识别的过程。具体步骤如下: 1. 读取Kinect传感器中的深度图像和彩色图像。 2. 对于深度图像,Kinect将每个像素深度转化为距离,然后加上Kinect在空间中的位置,得到在相机坐标下的空间点坐标。 3. 对于彩色图像,Kinect将每个像素的xy坐标转化为Kinect坐标系下的坐标,并通过内部的骨骼模型进行姿势识别,将坐标转化为各关节的世界坐标。 4. 综合深度图像和彩色图像中的信息,得到人体各关节的世界坐标,包括头、颈、肩膀、手肘、手腕、髋部、膝盖和脚踝等部位。 5. 根据各关节的世界坐标,可以计算出身体的姿势、角度、方向等信息,从而达到人机交互的目的。 Kinect中像素坐标转换成世界坐标是一项非常复杂的任务,需要利用深度传感器、彩色传感器、运动传感器等多个传感器的信息进行处理,因此在人体姿势识别等领域有广泛的应用。 ### 回答2: Kinect是一种深度摄像头,它可以为每个像素提供深度信息,因此可以将像素坐标转换为世界坐标。要实现这一转换,需要使用Kinect提供的SDK(软件开发工具包)中的函数和计算公式。 首先,需要使用Kinect提供的函数获取深度图像中指定像素深度。然后,需要使用Kinect提供的计算公式将深度转换为相应的三维坐标值。具体而言,该公式为: X = (pixelX - cx) * depth / fx Y = (pixelY - cy) * depth / fy Z = depth 其中,pixelX和pixelY是要转换的像素坐标值,cx和cy是深度摄像头的光学中心(通常为图像的中心),fx和fy是深度摄像头的焦距。depth是深度,表示从摄像头到物体表面的距离。 通过这种方式,可以将Kinect深度图像中的像素坐标转换为相应的世界坐标值,从而实现对物体位置和姿态的精确定位和跟踪。这为许多应用程序(如虚拟现实、交互式游戏和人机交互)提供了强大而方便的工具。 ### 回答3: Kinect摄像头可以通过红外线和深度传感器获取到物体的像素坐标,但这些像素坐标无法直使用。我们需要将它们转换成真实世界中的坐标值。 首先,需要将像素坐标转换为摄像头的相对深度。这个是根据摄像头与目标物体的距离计算得出的,可以通过 Kinect SDK 提供的深度图像和映射方法来计算获得。 下来,需要将相对深度转换为真实的物理坐标值。这个转换需要考虑到摄像头的位置、角度以及目标物体的大小等信息。通过 Kinect SDK 提供的坐标转换方法和摄像头的内部参数,可以将相对深度转换成真实世界中的坐标值。 最后,根据目标物体在摄像头坐标系中的位置,可以进一步将坐标值转换到全局坐标系中。这可以通过将摄像头坐标系和全局坐标系进行逆矩阵计算得到。 综上所述,将 Kinect 中的像素坐标转换成世界坐标需要多个步骤的计算,其中需要用到深度图像、映射方法、坐标转换方法和摄像头内部参数等信息。这些数据的正确获取和处理对于转换结果的准确性和精度至关重要。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值