自动驾驶汽车的发展已经见证了硬件传感器记录感官数据的容量和准确度的发展。传感器的数量增加了,新一代传感器正在记录更高的分辨率和更准确的测量结果。 在本文中,我们将探讨传感器融合如何在涉及环环相扣的数据标记过程中实现更高程度的自动化。
所有自动驾驶汽车(AV)都使用一组硬件传感器来识别周围的物理环境。硬件传感器包括摄像机或一组摄像机,这些摄像机战略性地放置在车辆车身周围,以捕获2D视觉数据,以及一些安装在车辆顶部的雷达,以捕获3D位置数据。有一些像特斯拉这样的供应商认为,视觉数据足以让汽车识别其环境。其他供应商使用激光雷达传感器捕捉车辆周围物体的3D位置数据。将二维视觉数据和三维位置数据融合,使AV系统能够精确地了解周围环境。
发展对周围环境的精确了解是AV系统的第一个组成部分。下图显示了AV系统的所有重要组成部分。
传感器融合
计算机视觉是计算机科学的一个分支,它使用照相机或照相机的组合来处理2D视觉数据。这使计算机可以识别汽车,卡车,骑自行车的人,行人,道路,车道标记,交通信号,建筑物,地平线。相机数据本质上是2D的,它不提供对象的距离。尽管可以使用摄像头传感器的焦距和光圈来近似物体的深度,但是由于在将摄像头传感器将3D场景捕获到2D平面上时会固有地丢失信息,因此无法精确定位。
雷达技术已在空中交通管理等地方用于定位飞行物体。雷达可用于估计物体的位置和速度。它不能用于将对象分类为汽车,人