games101 作业5
作业描述
在这部分的课程中,我们将专注于使用光线追踪来渲染图像。在光线追踪中最重要的操作之一就是找到光线与物体的交点。一旦找到光线与物体的交点,就可以执行着色并返回像素颜色。在这次作业中,我们需要实现两个部分:光线的生成和光线与三角的相交。本次代码框架的工作流程为:
从 main 函数开始。我们定义场景的参数,添加物体(球体或三角形)到场景中,并设置其材质,然后将光源添加到场景中。
调用 Render(scene) 函数。在遍历所有像素的循环里,生成对应的光线并将返回的颜色保存在帧缓冲区(framebuffer)中。在渲染过程结束后,帧缓冲区中的信息将被保存为图像。
在生成像素对应的光线后,我们调用 CastRay 函数,该函数调用 trace 来查询光线与场景中最近的对象的交点。
然后,我们在此交点执行着色。我们设置了三种不同的着色情况,并且已经为你提供了代码。
• global.hpp:包含了整个框架中会使用的基本函数和变量。
• Vector.hpp: 由于我们不再使用 Eigen 库,因此我们在此处提供了常见的向量操作,例如:dotProduct,crossProduct,normalize。
• Object.hpp: 渲染物体的父类。Triangle 和 Sphere 类都是从该类继承的。
• Scene.hpp: 定义要渲染的场景。包括设置参数,物体以及灯光。
• Renderer.hpp: 渲染器类,它实现了所有光线追踪的操作。
你需要修改的函数是:
• Renderer.cpp 中的 Render():这里你需要为每个像素生成一条对应的光线,然后调用函数 castRay()来得到颜色,最后将颜色存储在帧缓冲区的相应像素中。
• Triangle.hpp 中的 rayTriangleIntersect():v0, v1, v2 是三角形的三个顶点,orig 是光线的起点,dir 是光线单位化的方向向量。tnear, u, v是你需要使用我们课上推导的 Moller-Trumbore 算法来更新的参数。
解题
这次作业准备了两个方法让我们填写,rayTriangleIntersect()函数内需要填写的MT算法已经在课上给出了,而Render()函数则是口头说明,再写这里的时候需要自己再额外去学习一下 遍历所有的像素生成光线,这里参考了两个博客:
通过这两个博客可以知道怎么生成相机光线,我目前看了之后也只会简单地使用公式,感觉真正原理还没有完全掌握,等后面在回顾的时候再研究。
下面给出两个函数的代码:
//判断光线是否和三角形相交
bool rayTriangleIntersect(const Vector3f& v0, const Vector3f& v1, const Vector3f& v2, const Vector3f& orig,
const Vector3f& dir, float& tnear, float& u, float& v)
{
// TODO: Implement this function that tests whether the triangle
// that's specified bt v0, v1 and v2 intersects with the ray (whose
// origin is *orig* and direction is *dir*)
Vector3f E1 = v1 - v0;
Vector3f E2 = v2 - v0;
Vector3f S = orig - v0;
Vector3f S1 = crossProduct(dir, E2);
Vector3f S2 = crossProduct(S, E1);
Vector3f re = Vector3f(dotProduct(S2, E2), dotProduct(S1, S), dotProduct(S2, dir));
re = re / dotProduct(S1, E1);
// Also don't forget to update tnear, u and v.
//tnear = dotProduct(S2, E2) / dotProduct(S1,E1);
//u = dotProduct(S1, S) / dotProduct(S1, E1);
//v = dotProduct(S2, dir) / dotProduct(S1, E1);
tnear = re.x;
u = re.y;
v = re.z;
if(tnear >= 0 && u >= 0 && v >= 0 && (1-u-v) >= 0){
return true;
}
return false;
}
// [comment]
// The main render function. This where we iterate over all pixels in the image, generate
// primary rays and cast these rays into the scene. The content of the framebuffer is
// saved to a file.
// [/comment]
void Renderer::Render(const Scene& scene)
{
std::vector<Vector3f> framebuffer(scene.width * scene.height);
float scale = std::tan(deg2rad(scene.fov * 0.5f));
float imageAspectRatio = scene.width / (float)scene.height;
// Use this variable as the eye position to start your rays.
Vector3f eye_pos(0);
int m = 0;
for (int j = 0; j < scene.height; ++j)
{
for (int i = 0; i < scene.width; ++i)
{
// generate primary ray direction
float x;
float y;
// TODO: Find the x and y positions of the current pixel to get the direction
// vector that passes through it.
// Also, don't forget to multiply both of them with the variable *scale*, and
// x (horizontal) variable with the *imageAspectRatio*
float x_NDC = (i + 0.5) / scene.width;
float y_NDC = (j + 0.5) / scene.height;
float x_screen = 2 * x_NDC - 1;
float y_screen = 1 - 2 * y_NDC;
float x_camera = x_screen * imageAspectRatio;
float y_camera = y_screen;
x_camera = x_camera * scale;
y_camera = y_camera * scale;
//x = (2 * ((i + 0.5) / scene.width) - 1) * imageAspectRatio * scale;
//y = (1 - 2 * ((j + 0.5) / scene.height)) * scale;
Vector3f dir = Vector3f(x_camera, y_camera, -1);
//Vector3f dir = Vector3f(x, y, -1); // Don't forget to normalize this direction!
dir = normalize(dir);
framebuffer[m++] = castRay(eye_pos, dir, scene, 0);
}
UpdateProgress(j / (float)scene.height);
}
// save framebuffer to file
FILE* fp = fopen("binary.ppm", "wb");
(void)fprintf(fp, "P6\n%d %d\n255\n", scene.width, scene.height);
for (auto i = 0; i < scene.height * scene.width; ++i) {
static unsigned char color[3];
color[0] = (char)(255 * clamp(0, 1, framebuffer[i].x));
color[1] = (char)(255 * clamp(0, 1, framebuffer[i].y));
color[2] = (char)(255 * clamp(0, 1, framebuffer[i].z));
fwrite(color, 1, 3, fp);
}
fclose(fp);
}