apollo学习笔记十九:apollo 感知(中)

感知算法

在这里插入图片描述

点云感知

在这里插入图片描述

  • 主要任务是感知障碍物的位置、大小、类别、朝向、轨迹、速度等。核心是点云检测分割技术,可以用启发式算法NCut和深度学习算法CNNSeg完成。

启发式方法:Ncut

在这里插入图片描述
Ncut算法的基本思想是基于空间平滑性假设,即空间上接近的点来自同一个障碍物。首先,利用地图信息对点云进行预处理,例如去掉感兴趣区域之外的点云,降低点云图的复杂度。然后根据预处理后的点云构建加权图G=(V, E, W),将点云分割转换为图分割的问题,可以利用图聚类的算法求解,最终求解的每一个cluster就代表一个障碍物。该算法的优点是解释性好,缺点是分割规则过于简单,难以应对实际情况(草丛、绿化带),主要原因在于缺乏语义信息。

深度学习方法:CNNSeg

在这里插入图片描述

  • 主要思想是利用卷积神经网络来处理激光雷达捕获的点云数据,并对点云中的目标进行识别。深度学习是数据驱动的,它把人工构造特征这一任务交给机器和算法去完成(即特征学习)。在百度的深度学习感知实现过程中,团队尝试了很多方法,下面就简单介绍算法研发的历程。

在这里插入图片描述

  • 将所有点云都投到前视图(front-view)(投影面是一个圆柱面)来构造特征,将点云问题转化为矩阵问题,进而使用深度学习进行处理。通过构建全卷积神经网络对前向视图进行处理。
  • 借助自采集车队,采集更多的实际数据,并且扩展数据视角,制作俯视图,通过将俯视图+前视图相结合的方式进行训练。同时,修改Loss函数,包括使用3D回归和Segmentation的损失函数。经过多次实验,发现基于俯视图的Segmentation方法效果最好。该方法目前已经在Apollo中开源,如下所示。
  • 因为俯视图没有高度信息,因此我们把前视图和Camara图像加进来进行辅助检查,利用Lidar的测距准和Camera识别准优势完成了Middle-Level Fusion方法(Multi-View 3D Object Detection Network for Autonomous Driving),发表在CVPR 2017。该方法使用俯视图提取Proposal,利用前视图和光学图像辅助进行更加精准的位置回归。

在这里插入图片描述

视觉感知

在这里插入图片描述

  • 当前,视觉感知的主流技术路线为“深度学习+后处理计算”的方法。该方法带来了以下几个变化,第一是要求计算硬件升级,第二是数据的需求量大增,第三是如何评估保证安全性。面向自动驾驶的深度学习算法具有以下几个特点:
    • 2D感知向3D感知渗透,模型输出更丰富(后处理需要的3D信息、跟踪信息、属性信息等都会放在CNN中进行学习)。
    • 环视能力构建(传统方法靠一个Camera完成前向检测、碰撞检测、车道线检测。无人驾驶需要环视)。
    • 感知+定位+地图紧密结合
  • CNN检测是深度学习里一个十分火热的应用,从最开始的AlexNet,VggNet到ResNet等,持续提高了ImageNet图像检测的精度。需要注意的是,目前发表的大部分关于检测的成果都是面向计算机视觉应用的,与自动驾驶领域的检测还有很大的区别。
    • 自动驾驶中,摄像头是安装在车上的,汽车行驶在结构化、规则化道路上,面向的场景更具体,有很多的几何约束可以用来辅助检测。
    • 自动驾驶中的检测模型需要输出的信息更多,包括障碍物的尺寸、朝向。同时自动驾驶还需要考虑时序性。我们称之为局部的End-to-End,检测、2D到3D转换、跟踪三步是自动驾驶视觉感知的组成,后面两步都由CNN来学习,减少人工干预。
    • 多任务学习,网络结构适配。自动驾驶需要针对不同的障碍物特征(车道线,道路边界,定位元素)进行识别,如果分别由专用模型处理,整个处理流程太长,无法满足要求,因此需要做多任务的识别和网络结构的适配。
    • 属性识别中,除了障碍物级别的输出以外,还需了解速度类别朝向等问题,例如车尾灯状态,车门开闭状态。可以通过标注数据,由数据驱动的深度学习来自动学习这些更细的属性。

CNN分割

  • 分割(Segmentation)与detection在本质上是一样的,是对一个目标的不同力度的刻画。分割是一种更细粒度刻画物体边界信息的检测方法,不再是画框,而是进行边缘分割。在感知中,对于不规则物体,往往需要进行分割处理。例如场景分割和可行驶区域感知。场景分割可以用于多传感器融合,例如对绿植进行分割,结合LiDAR点云,就可以测出绿植的类别和距离。可行驶区域则可以对一些非结构化道路的路径规划提供支持。在车道线感知中,应视具体情况使用分割或者检测方法。
  • 检测和分割
    • 粗细粒度的刻画,方法趋同
  • 场景分割
    • 适合多传感器融合
  • 可行驶区域
    • 障碍物的互补问题
    • 非结构化道路和结构化道路
  • 车道线
    • 分割方法
    • 检测方法

在这里插入图片描述

后处理

  • 一个完整的系统除了深度学习模型,还需要做一些后处理,后处理是直接针对下游模块,对后续的影响比较直接。在视觉感知中,后处理主要分为三个部分。
    在这里插入图片描述

  • 2D-to-3D几何计算。2D到3D的转换需要考虑的因素包括:

    • 相机pose的影响
    • 接地点
    • 稳定性
  • 时序信息计算,主要是针对跟踪处理,需要注意以下几点:

    • 对相机帧率和延时有要求,要求跟踪必须是一个轻量级的模块,因为检测已经占据大部分时间
    • 充分利用检测模型的输出信息(特征、类别等)进行跟踪。
    • 可以考虑轻量级Metric Learning
  • 多相机的环视融合

    • 相机布局决定融合策略,要做好视野重叠 。

红绿灯感知

  • 红绿灯感知的任务是在距离停止线50~-2米的范围内精准识别红绿灯亮灯状态。难点在于:

    • 检测精度要求非常高(99.9%),否则会出现闯红灯,违法交规的情况。
    • 召回也不能太低,假设一直是绿灯,但是一秒只召回一帧绿灯,其他都认为是识别错的红灯,则通不过路口,影响通过率和体验。
    • 红绿灯感知需要应对各种环境,包括天气和光照。
    • 红绿灯的制式非常多,包括距离、高度、横纵、信号状态等,红绿灯感知都需要识别。
      在这里插入图片描述
  • 基于深度学习的红绿灯感知模块:自动驾驶中使用深度学习进行红绿灯感知模块的构建,主要分为以下几步。
    在这里插入图片描述

    • 相机选择和安装。相机选择需要注意几个重要的参数,一是相机的高动态比HDR要高于100db。第二是拍摄图像的分辨率要达到1080P,满足15pixel大小的灯能够看得到。在实际应用中,我们使用了两个Camera,叫双Camera,长短焦切换,六毫米适用于近距离。

    • 高精地图的交互。我们并不是把所有红绿灯识别算法都交给在线算法完成,这样做无法满足鲁棒性要求也加重算法负担,需要把一些固定信息交给高精地图去完成,算法只实现在线变化的一些因素。地图提供灯组3D坐标和交通含义,算法只看RoI区域,避免形状识别出错。

    • 使用深度学习识别灯颜色的变化。主要分为检测和颜色分类两步.
      在这里插入图片描述

    • 实际使用过程中可能会更复杂。如上图所示,一条道路上有很多红绿灯,检测算法会把所有的灯都检测出来,地图会告知需要看几个灯,但是并不知道看哪几个灯。因此需要把对应关系匹配起来,需要做3D到2D的投影,投影又受到标定、定位、同步、地图等因素的影响,需要综合考虑才能解决好这个问题。

Radar感知

在这里插入图片描述

上图右边是Radar的点云信号投影的成像。图中有很多的点,但是并不是所有的点都是障碍物,存在很大的噪音,需要进行鉴别。图中明显成一条线的点是对路边界金属栅栏的感知结果。因为金属的反射信号比较好,所以雷达点会成直线分布。基于该特征,可以用Radar反射信号来做高速路道路边缘栅栏的检测。

超声波感知

在这里插入图片描述

  • 超声波只能进行近距离感知,并且无法感知具体的位置。
  • 对无人驾驶来说,行驶过程中帮助并不大,更多的是用于倒车和特别近距离的感知。
  • 上图给出了超声波感知的一个例子,我们在车上布了12个超声波传感器,每个超声波探头覆盖一个角度,大概检测到三米范围内的障碍物。
  • 当某个地方有障碍物,传感器发送超声波,收到回波信号以后可以得到障碍物的距离信息,但是并不能确定在覆盖范围内哪个地方有障碍物
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值