小议驾驶辅助和摄像头

什么是驾驶辅助?

要阐释“驾驶辅助”的概念,得先从“自动驾驶”说起,因为驾驶辅助是自动驾驶的过渡阶段。
自动驾驶即汽车自己驾驶,而不需人为干预,换句话说人的驾驶技术已经没有发挥的必要了,汽车内也将变成生活空间,就像科幻电影一样。实际上从这层意义上谈论,我们谈论的是“自动驾驶”里最高级的一部分,即无人驾驶。

自动驾驶按美国汽车工程师协会SAE提出的定义,“自动驾驶”可按自动化的程度从L0-L5分为六级。
自动驾驶分级

不难看出,“驾驶辅助”处在L1-L2的阶段,因为它的驾驶操作和周边监控主体都是人,系统只提供部分情况下的支持工作,比如转向时为你助一把力、提供某些预警提示等等。
目前研究的主要方向便是驾驶辅助,或者说ADAS(高级驾驶辅助),基本上新生产的汽车都已经开始标配ADAS。

如何区分“驾驶辅助”和“无人驾驶”?

从三个方面可以很容易区分:

1.周边监控和驾驶操作的主体

驾驶辅助仍然是需要人去观察、人去驾驶的,周边监控和驾驶操作的主体是人,而无人驾驶可以完全脱手,周边监控和驾驶操作的主体是系统。

2.责任划分

当出事故时,驾驶辅助的责任归人,无人驾驶的责任归主机厂。

3.算法复杂程度

无人驾驶对算法的要求十分严格,毕竟人命关天,不管是定位还是识别都必须无比精确,因而会用到的传感器和算法比驾驶辅助多的多。

代表成果?

大型互联网公司、车企和高校都在研究自动驾驶,水平较高的有Google的Waymo、百度的Apollo项目,车企但凡有一定资本的,如上汽大众、通用、丰田、福特、北上广汽、特斯拉等等,乃至无数上市的民企,都在设立研究中心,开拓这个领域。

国外有名的比赛如“美国DARPA无人驾驶车挑战赛”,国内有名的比赛如“智能车未来挑战赛”,都从上世纪末开始举办至今,吸引各大高校参加。

驾驶辅助的代表性系统有ACC(自适应巡航)、LKA(车道保持辅助)、AEB(紧急制动)等。
业内有名的“半自动驾驶”系统如特斯拉的autopilot、通用的supercruise等,还有“智能人机交互”如奔驰的MBUX、拜腾的超大中控屏等。(在电子展CES上能看到很多)

自动驾驶如何感知周围环境?

计算机视觉”+“传感器融合”+“高精度地图”是主流方式。

计算机视觉提供视野,是自动驾驶的眼睛,传感器融合提供更多眼睛看不到的数据,如天气影响或者障碍物遮挡下对距离的测算和物体的识别等,高精度地图是实现GPS厘米级定位的前提,让汽车知道自己在哪儿。三者结合就能感知周围环境,了解周围都是什么和自己所处的位置,以此为基础进行路径规划。这方面的典型例子可以参照百度Apollo项目。

计算机视觉主要依靠摄像头和处理器的配合,实现对环境光线信息的获取。
摄像头的功能是获取光线信号,由CMOS/CDD把光信号转化为模拟电信号,交给计算机处理,这个协同工作过程就叫“计算机视觉”。计算机视觉的功能是产生路况画面的时间序列,从每一帧里提取感兴趣的信息,从而实现对车辆、行人、障碍物、路标、信号灯的识别或者其他工作。

计算机视觉处理图像,需要进行预处理,完成RGB模型(红绿蓝)向HSI模型(色调、饱和度、亮度)的转变。
预处理的步骤包括:
1.灰度化(因为亮度就足够体现信息)
2.图像滤波(去除噪点)
3.边缘加强(突出物体轮廓特征)
4.二值化(设定某灰度阈值,某像素超过它就设为255,低于它就设为0,分割图像)

举个例子表达机器视觉在驾驶辅助里的作用,如结构化道路的道路识别算法。
“结构化道路”就是分界明显、有车道线的道路,主要为城市道路,算法流程大致如下:
①开始,先在首帧图像上划定车道的检测区域,以后的搜索范围都被限定在这个动态框架里
②把车道边界点定义为:逐行搜索中每行灰度值跳变最大且超过一定阈值的点
③逐行扫描后,车道边界点检测满一定数量就启动直线拟合算法,求取近似车道线;如果不满就从历史帧和当前帧的结果进行推导
④如不工作即结束
车道识别

参考资料:

[1]陈慧岩,熊光明.无人驾驶汽车概论.北京理工大学出版社
[2]“辅助驾驶功能与自动驾驶有什么区别?”-薛迟的回答-知乎
[3]美国 CES 2018
[4]Apollo开发者社区

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值