apollo自动驾驶教程学习笔记-Apollo感知之旅3-1

视频链接:http://bit.baidu.com/Course/detail/id/278.html
讲师:夏添 Apollo主任架构师

接下来的3部分课程,讲解了关于无人驾驶感知的一些内容,主要提纲为:

  1. 感知概貌
  2. 传感器与标定
  3. 感知算法
  4. 感知中的机器学习
  5. 感知的未来
  6. 课后思考

感知概貌


感知是机器人学科的知识,因为机器人需要感知周围环境,将环境信息输入到机器人系统中,进而对信息进行处理和分析,与环境进行交互。机器的感知是模仿人类的感知模式而设计的,但机器要对人类的感知特点取长避短。

和人类感知的关系

机器感知靠的是sensor,比如lidar、camera、radar这些传感器,在之前的课程中都介绍过。
机器的sensor相比较于人类的感知来说,是全覆盖的(人类的感知器官往往需要配合肢体动作才能全覆盖),精度高(比人类的感知器官高很多),但是机器的感知分析能力、语义识别能力不如人类,这是人类大脑最神奇的地方。机器感知的目标是能够做到人类感知的水平,最终超过人类感知的能力。

高精地图

上一节课提到的高精地图,其实是作为感知的一个输入材料,现在的无人驾驶感知技术依然不很完善,在没有
高精地图的环境下无法安全可靠运行,高精地图可以提高无人驾驶的准确性,但同时由于高精地图的建图成本高,非全覆盖,导致感知依赖于高精地图这个问题,既是优点也是缺点。

障碍物检测

感知的一个重要部分是障碍物识别,包括识别障碍物的3D位置,类别,体积(形状),以及跟踪,跟踪的意思是能够估计障碍物的行为,划分多帧信息中同一障碍物等。

传感器融合

对于以上这些传感器,会输入很多信息,从而会导致大量的计算,所以需要传感器信息融合技术来提取最重要的信息,过滤重复信息,提高系统鲁棒性。

信号灯识别

信号灯的识别,比如交通路口的情况,也是感知中的重要内容,高精地图只能做到标记车道和信号灯的位置、类别等,但对于动态信息,即当前是什么颜色的灯,是需要感知去获取的。
老师提到一个V2X的概念,就是信号灯和无人驾驶联合的概念,信号灯的状态通过网络或其他成熟可靠的通信手段发送给无人驾驶系统,而不是通过机器视觉识别。

感知分类

  • 小感知:检测、语义分析、属性识别、跟踪、融合
  • 大感知:标定、定位、障碍物行为预测

多维度看问题

  1. Sensor维度:作为输入信息的来源,包括传感器和高精地图
  2. Target维度:作为感知输出,包括车道线、障碍物、红绿灯等
  3. 问题空间维度:2D、3D算法,静态帧检测,时序处理
  4. 机器视觉维度:模型计算,几何计算
  5. 机器学习维度:深度学习(数据驱动),后处理(启发式)
  6. 系统维度:软硬件相结合
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值