void gluLookAt(GLdouble eyex,GLdouble eyey,GLdouble eyez,GLdouble centerx,GLdouble centery,GLdouble centerz,GLdouble upx,GLdouble upy,GLdouble upz);
该函数定义一个视图矩阵,并与当前矩阵相乘。
第一组eyex, eyey,eyez相机在世界坐标的位置
第二组centerx,centery,centerz相机镜头对准的物体在世界坐标的位置
第三组upx,upy,upz相机向上的方向在世界坐标中的方向
你把相机想象成为你自己的脑袋:
第一组数据就是脑袋的位置
第二组数据就是眼睛看的物体的位置
第三组就是头顶朝向的方向(因为你可以歪着头看同一个物体)。
如果说gluLookAt
定义了相机的位置,那么gluPerspective
定义了相机的视野范围,比近裁面(near)近的不会被展示在视野里,同理,比远裁面(far)远的也不会。
投影矩阵生成参数:
perspective(float fovy, float aspect, float zNear, float zFar)函数可以生成一个投影矩阵
fovy:指定视景体的视野的角度,以度数为单位,y轴的上下方向
aspect:视景体的宽高比(aspect应该与窗口的宽高比大小相同)
zNear:
指定观察者到视景体的最近的裁剪面的距离(必须为正数)
zFar:
与上面的参数相反,这个指定观察者到视景体的最远的裁剪面的距离(必须为正数)
投影矩阵可以控制视景体内的模型被渲染,视景体外的会被裁减掉:
如何判断一个点在一个长方体内部呢?
观察矩阵生成参数:
生成观察矩阵函数:
void lookat(float3 const & eye,float3 const & lookAtPos,float3 const & up);
eye:眼睛位置
lookAtPos:往哪一点看
up:向上的方向
摄像机坐标系三个坐标轴:(以观察的方向为z轴方向)
float3 z = normalize(lookAtPos - eye); //两个点生成一条射线,
float3 y = normalize(up);//向上的方向
float3 x = normalize(cross(f, u));
y= cross(s, f);
tmat4x4<T> res(1);
res[0][0] = x.x;
res[1][0] = x.y;
res[2][0] = x.z;
res[0][1] = y.x;
res[1][1] = y.y;
res[2][1] = y.z;
res[0][2] = -z.x;
res[1][2] = -z.y;
res[2][2] = -z.z;
res[3][0] = -dot(x, eye);//|x|*|eye|*cos(夹角),x是单位向量模长为1,|eye|*cos(夹角)=邻边长度,也就是摄像机x轴长度
res[3][1] = -dot(y, eye);
res[3][2] = dot(z, eye);
观察矩阵(也叫视图矩阵):相当于把摄像机放在一个位置,摄像机在不同的位置看到的范围不一样。然后把整个世界坐标系内的模型坐标转换到摄像机坐标系下。