上一章的内容:
一. 器件选型心得(系统设计)--1
一. 器件选型心得(系统设计)--2
接下来我们从自动驾驶的需求出发到传感器的选型,再到硬件系统的搭建。
需求
主要有三点:定位、感知(狭义)、规控,对应就是我在哪,有什么障碍(路况、行人、车辆、红绿灯、车道线等等),去哪和怎么去的问题。
定位和狭义的感知其实也可以并为广义的环境感知问题,即自动驾驶车辆需要感知自身在环境中的位姿和环境本身。
最后就并为两点:环境感知和应对变化(规划、控制、决策等),这两点都有传统和基于学习的方法,比如深度学习、强化学习和深度强化学习。
传感器的选型
分类:
运动感知类传感器:
• 全球卫星定位系统(GNSS和RTK)
• 惯性传感器(IMU)
• 轮速计
• 激光雷达(LiDAR)
• 相机(Camera)
环境感知类传感器:
• 激光雷达(LiDAR)
• 相机(Camera)
• 毫米波雷达(Radar)
• 超声波雷达
从传感器的功能角度看,建图定位和感知两个方向都需要涉及到多传感器融合问题。
从需求侧分析,要应对各种天气(晴天、雨天、雾天、雪天、阴天等)、各种光照条件(白天、黄昏、黑夜、阳光直射、背光)、各种距离(盲区:0-2m,近距离:2-40m,中距离:40-80m,远距离:80-200m,超远距离:>200m)、各种维度和精度(六自由度观测、求速度、加速度、角速度)、各种系统级要求(无漏检、误检、时间误差<10ms、位置误差<0.3m)
从供给侧分析,各种传感器各有优劣。总之,一种传感器无法适配所有场景,需要出色的融合技术才能解决。
多传感器融合的可行性分析
从人眼类比,多传感器通过多波段配合,互为冗余,可适配各种天气、光照条件、感知距离和精度需要。
常见的Camera Sensor指标
sensor核心指标 | 含义 | 案例:IMX 390 | 意义 |
---|---|---|---|
Optical Format | 感光元器件的对角线尺寸 | 1/2.7英寸 | 尺寸大,弱光感受能力强、尺寸小,可成像细节更多 |
Active Pixels | 有效像素 | 2017*1217 | 像素越高信息越丰富,但处理时间也越长。 |
Megapixels | 百万像素 | 2.45M | 像素越高信息越丰富,但处理时间也越长。 |
Pixel Size | 像元尺寸 | 2um | |
Output bit depth | 像元灰度值的阶数(图像细腻度) | 10/12bit | 阶数越高越细腻 |
Dynamic Range | 感光的亮度范围 | 120dB | |
FrameRate | 输出帧率 | 60/40fp | 一般像素高,帧率低;像素低,帧率高。 |
对于检测任务,通常车辆的最小像素要求不小于30pixel,红绿灯通常要求不小于10pixel。
相机选型问题:
焦距(mm) | 红绿灯识别距离(m) | 障碍物检测距离(m) |
---|---|---|
2.1 | 7-13 | 2-42 |
12 | 40-74 | 11.2-240 |
常见的Lidar指标
LiDAR关注指标 | 含义 | 案例:Hesai Pandar64 | 意义 |
---|---|---|---|
线束 | 激光束个数 | 64 | 越多点云越稠密,且线束不均匀分布调整的空间越大 |
波长 | 激光电磁波的波长 | 905nm | 1550nm更安全,但是工艺更复杂 |
测量精度 | 位置识别精度 | ±5cm | |
探测距离 | 0.3~200m | ||
点频 | 单位时间内返回点数 | 1152000pts/s | |
垂直视场角 | -25°~+15° | ||
垂直分辨率 | min 0.167° | ||
旋转频率 | 10Hz/20Hz | 越快水平分辨率越低 | |
水平分辨率 | 可通过旋转频率和单线一秒所出点数计算出来 | ||
水平视场角 | 360° |
对于检测任务,通常车辆的最小点数理论值不少于30个,行人通常要求不小于10个点,选型时可按照下式进行。
∆𝑠 = dist ∗ sin(θ)
假设角度分辨率为0.1°,则100m处,两个最近点的成像距离为0.17m。
Radar关注的参数以及常见参数
参数 | 中距模式 | 长距模式 |
---|---|---|
工作频段(GHz) | 76.5 | 76.5 |
最小/最大距离[m] | 0.2/70 | 0.2/250 |
距离分辨率[m] | 0.39 | 1.79 |
距离精度[m] | ±0.10 | ±0.4 |
最小/最大速度[km/s] | -400/200 | -400/200 |
速度分辨率[km/s] | 0.43 | 0.37 |
速度精度[km/s] | ±0.1 | ±0.1 |
水平FOV | ±60° | ±9.0° |
垂直角度FOV | - | - |
接口 | CAN | CAN |
选型总结
传感器 | 传感器类型 | 成像细节 | 测量 | 成像空间 | 视野范围 | 触发方式 | 价格 | 量产需求 | 常见厂家 | 缺点 | 优点 |
Camera | 被动 | 稠密 | 像素矩阵 | 2D | 距离:0-200m FOV:30°/60°/120°/fisheye 盲区:近处盲区 | Rolling shutter,成像时间其时间域内有误差 | <1k | 成熟量产 | 索尼、安森美、豪威 | 缺乏深度信息,对光照条件是必要条件 | 颜色细节丰富,适用于目标丰富 |
LiDAR | 主动 | 稀疏 | timestamp、(X,Y,Z)、intensity | 3D | 距离:5-100m FOV:360°/<180° 盲区:近处盲区 | 逐点成像,成像时间无误差 | 5k ~ 10w | 支持量产 | 镭神、禾赛、速腾、Velodyne、Ouster等 | 量产难度大,对雨水、灰尘敏感 | 完整的3D信息,对距离感知能力强 |
Radar | 主动 | 更稀疏 | timestamp:时间戳、d:径向距离,高精度、Vrange:径向速度,高精度、Vlateral:切向速度,低精度、θ:朝向角,低精度,越大越不准 | 2.5D | 距离:5-150m FOV:<120° 盲区:近处盲区 | 成像时间在其时间域内无误差 | <5k | 成熟量产 | Conti | 朝向角和切向速度精度不好,无高度信息,静止障碍物感知能力弱。 | 速度精度和径向距离还可以,全天候工作。 |
超声波雷达 | 主动 | 最稀疏 | timestamp:时间戳,dist:径向距离 | 2.5D | 距离:0-10m FOV:<120° 盲区:约等于无 | 成像时间其时间域内无误差 | <1k | 成熟量产 | Bosch、Valeo | 对温度敏感;波传播速度慢,对速度敏感;方向性差,无法精确定位; | 抗干扰能力强,防水防尘能力强。 |
通过:1. 多种电磁波与机械波配合
-
被动传感器与主动传感器配合
-
稀疏传感器与密集传感器搭配,2D与3D配合远中近距离均适合
-
FOV可灵活搭配,可有效区分重点区域
-
时间戳误差可控,感知的维度各有所长
-
均已量产,LiDAR虽成本高使用受限,但发展快
我们要能够达到应对各种天气、各种光照条件、多种感知距离、多维度和精度需求、成本可控,满足车规要求。
多传感器硬件系统构建
定位系统设计
建图定位相关传感器:GNSS(RTK) + IMU + Camera/LiDAR+轮速计
V-SLAM可做:语义地图定位、车道线横向定位
L-SLAM可做:• 3D点云地图定位
这个融合方案可有效解决长时间的遮挡场景:如高架桥、隧道等
其他传感器:5G基站、V2X的RSU(车路协同的路测单元)
定位系统的目标:打造全工况、全时段、高精度(厘米级)、高可靠性(99.99%+)的定位能力。因此融合技术必不可少。
感知系统的多传感器硬件系统设计思路
区域0:常为车身感知盲区,主要用于慢速行驶的安全冗余以及泊车场景;
区域1:主要用于前向行驶需求,通常分为三阶段:
• 0-80m:要求感知精度高,高冗余
• 80-120m:要求感知精度中高,中等冗余
• 120-200m+:要求感知精度中等,冗余要求低
区域2/3:主要用于左右变道或转向场景,冗余要求较低;
区域4:用于常规行驶的后向视野,冗余要求低。
典型L2传感器系统
12x 超声波雷达:最大感知距离8m
3x 前视camera,分别:
• FOV 35°,最远距离250米
• FOV 50 ° ,最远检测距离150米
• FOV 120 ° ,最远检测距离60米
• 1x 前视radar:最远检测距离160m(可选)
• 2x 侧后视camera:FOV72°,最远检测检测距离100m
• 2x 侧前视camera:FOV 90°,最远检测距离80米
• 1x 后视camera:FOV145°,最远检测距离50m
典型L4传感器系统(一般是测试车辆,如果是乘用车一般不会使用360°激光雷达,会使用固态激光雷达,从成本、车规、美观考虑)
3x 前视camera,分别:
• FOV 35°,最远距离250米
• FOV 50 ° ,最远检测距离150米
• FOV 120 ° ,最远检测距离60米
• 2x 侧后视camera:FOV72°,最远检测检测距离100m
• 2x 侧前视camera:FOV 90°,最远检测距离80米
• 1x前视radar+1x后视radar:最远检测距离160m。 • 1x 360° LiDAR:有效检测距离约150m;
• n个补盲LiDAR:有效检测距离约10m;
后视的需求下降,较少使用超声波雷达。
参考:深蓝学院《多传感器融合感知》