最近在研究相机定位,我们采用的方式是用卷积神经网络来回归场景坐标可视化,于是就涉及到一个小问题,就是可视化场景坐标,简单找了一些方法可视化,虽然觉得还有些不完美,但是已经能够可视化场景座标了。所以写个博客记录一下给需要的朋友分享一下,如果有人有更好的建议,可以给我留言。
首先在SLAM中,有世界坐标系和相机坐标系,他们都是三维坐标,场景坐标是空间中某个点在世界坐标系下的点,因此它也是三维的,有x,y,z三个值,有了深度信息,就可以求得他们的坐标值。
现在假设我们已经有了一张图像对应的场景坐标,
图片大小为,640x480,3个通道(RGB)
那么对应的,场景坐标也有640x480个,每一个有x,y,z三个值。
因此,图像和场景坐标都有3x640x480个值。现在把它按照顺序组成三维数组就是int a[3][640][480]
我们现在假设已经把这个a数组按照numpy的方式存储到scenes_coordinate1.npy文件中了。现在执行下面的代码即可得到可视化的图像:
import numpy as np
import scipy.misc
import matplotlib
import matplotlib.image as img
# Python3用,因为2对中文注释支持不友好.
# 这是一个可视化场景坐标的代码.读取的npy文件里面是np数组保存的场景坐标值.
# 可视化两种方式都可以,
'''
1, img.imsave('outfile'+str(i)+'.jpg', numpy_array)
2, scipy.misc.toimage(numpy_array.astype(np.uint8)).save('outfile'+str(i)+'.jpg')
'''
#注意导入之后最好把坐标值统一放大一下,这里是100,这样看得比较清楚.
numpy_array =(np.load('scenes_coordinate1.npy').reshape(3,480,640)*100).astype(np.uint8).transpose(1,2,0)
#方法一,
# img.imsave('outfile'+str(i)+'.jpg', numpy_array)
#方法二,
scipy.misc.toimage(numpy_array.astype(np.uint8)).save('outfile'+str(i)+'.jpg')
这是在7scenes数据集上可视化的效果,虽然有点奇怪,但是还是可以看的,放大的倍数决定了颜色的明亮程度。