自动驾驶汽车硬件与软件技术介绍

来源:知乎

概要:本文详细介绍了自动驾驶汽车的硬件和软件,以及所需要做的准备工作,每个研发者或者准备投身于无人驾驶领域的人都应该好好看一下。


全球有数不清的公司在忙着研发自动驾驶汽车,他们的产品也千奇百怪,不过基本思路和核心技术是类似的,本文详细介绍了自动驾驶汽车的硬件和软件,以及所需要做的准备工作,每个研发者或者准备投身于无人驾驶领域的人都应该好好看一下。


大家都知道智能车(Intelligent Vehicle)是一个集环境感知、规划决策、多等级辅助驾驶等功能于一体的综合系统,它集中运用了计算机、现代传感、信息融合、通讯、人工智能及自动控制等技术,是典型的高新技术综合体。


自动驾驶的关键技术依次可以分为环境感知、行为决策、路径规划和运动控制四大部分。



自动驾驶理论听上去很简单,四大关键技术,但到底如何实现的呢?Google 从 2009 年开始做自动驾驶,到现在已有 8 个年头。8 个年头的技术积累还无法将自动驾驶技术量产落地,可见自动驾驶技术并不简单。自动驾驶是一个庞大而且复杂的工程,涉及的技术很多,而且太过细致。我从硬件和软件两方面谈一谈自动驾驶汽车所涉及的技术。


硬件


离开硬件谈自动驾驶都是耍流氓。先看个图,下图基本包含了自动驾驶研究所需要的各种硬件。



然而,这么多传感器并不一定会同时出现在一辆车上。某种传感器存在与否,取决于这辆车需要完成什么样的任务。如果只需要完成高速公路的自动驾驶,类似 Tesla 的 AutoPilot 功能,那根本不需要使用到激光传感器;如果你需要完成城区路段的自动驾驶,没有激光传感器,仅靠视觉是很困难的。


自动驾驶系统工程师要以任务为导向,进行硬件的选择和成本控制。有点类似于组装一台计算机,给我一份需求,我就给你出一份配置单。


汽车


既然要做自动驾驶,汽车当然是必不可少的东西。从上汽做自动驾驶的经验来看,做开发时,能不选纯汽油车就别选。一方面是整个自动驾驶系统所消耗的电量巨大,混动和纯电动在这方面具有明显优势。另一方面是 发动机的底层控制算法相比于电机复杂太多,与其花大量时间在标定和调试底层上,不如直接选用电动车研究更高层的算法。


国内也有媒体专门就测试车辆的选择做过调研。「为什么谷歌、苹果不约而同的选择了雷克萨斯RX450h(混动汽车)?」「科技公司测试自己的自动驾驶技术时,对于测试车的选择又都有哪些讲究?」等问题。他们得出的结论是「电」和「空间」对无人车改装至关重要,其次从技术层面上对车的「熟悉程度」是另外一个因素,因为如果不和车企合作改装,需要「Hack(侵入)」某些控制系统。


控制器 


在前期算法预研阶段,推荐使用工控机(Industrial PC,IPC)作为最直接的控制器解决方案。因为工控机相比于嵌入式设备更稳定、可靠,社区支持及配套的软件也更丰富。百度开源的 Apollo 推荐了一款包含 GPU 的工控机,型号为 Nuvo-5095GC,如下图。


Github ApolloAuto


当算法研究得较为成熟时,就可以将嵌入式系统作为控制器,比如 Audi 和 TTTech 共同研发的 zFAS,目前已经应用在最新款 Audi A8 上量产车上了。



CAN 卡


工控机与汽车底盘的交互必须通过专门的语言——CAN。从底盘获取当前车速及方向盘转角等信息,需要解析底盘发到 CAN 总线上的数据;工控机通过传感器的信息计算得到方向盘转角以及期望车速后,也要通过 CAN 卡将消息转码成底盘可以识别的信号,底盘进而做出响应。


CAN 卡可以直接安装在工控机中,然后通过外部接口与 CAN 总线相连。Apollo 使用的 CAN 卡,型号为 ESD CAN-PCIe/402,如下图。



全球定位系统(GPS)+惯性测量单元(IMU)


人类开车,从 A 点到 B 点,需要知道 A 点到 B 点的地图,以及自己当前所处的位置,这样才能知道行驶到下一个路口是右转还是直行。


无人驾驶系统也一样,依靠 GPS + IMU 就可以知道自己在哪(经纬度),在朝哪个方向开(航向),当然 IMU 还能提供诸如横摆角速度、角加速度等更丰富的信息,这些信息有助于自动驾驶汽车的定位和决策控制。


Apollo 的 GPS 型号为 NovAtel GPS-703-GGG-HV,IMU 型号为 NovAtel SPAN-IGM-A1。



感知传感器 


相信大家对车载传感器都耳熟能详了。感知传感器分为很多种,包括视觉传感器、激光传感器、雷达传感器等。视觉传感器就是摄像头,摄像头分为单目视觉,双目(立体)视觉。比较知名的视觉传感器提供商有以色列的 Mobileye,加拿大的 PointGrey,德国的 Pike 等。


激光传感器分为单线,多线一直到 64 线。每多一线,成本上涨 1 万 RMB,当然相应的检测效果也更好。比较知名的激光传感器提供商有美国的 Velodyne 和 Quanergy,德国的 Ibeo 等,国内有速腾聚创。


雷达传感器是车厂 Tier1 的强项,因为雷达传感器已经在汽车上得到了广泛使用。知名的供应商当然 是博世、德尔福、电装等。


硬件部分总结


组装一套可以完成某项功能的自动驾驶系统需要及其丰富的经验,并且要对各传感器的性能边界及控制器计算能力了如指掌。优秀的系统工程师能在满足功能的要求下将成本控制在最低,使其量产、落地的可能性更大。


软件


软件包含四层:感知、融合、决策、控制。


各个层级之间都需要编写代码,去实现信息的转化,更细化的分类如下。


先分享某创业公司公开的一份 PPT。



实现一个智能驾驶系统,会有几个层级:


  • 感知层 → 融合层 → 规划层 → 控制层


更具体一点为:


  • 传感器层 → 驱动层 → 信息融合层 → 决策规划层 → 底层控制层


各个层级之间都需要编写代码,去实现信息的转化。


最基本的层级有以下几类:采集及预处理、坐标转换、信息融合。



采集


传感器跟我们的 PC 或者嵌入式模块通信时,会有不同的传输方式。


比如我们采集来自摄像机的图像信息,有的是通过千兆网卡实现的通信,也有的是直接通过视频线进行通信的。再比如某些毫米波雷达是通过 CAN 总线给下游发送信息的,因此我们必须编写解析 CAN 信息的代码。


不同的传输介质,需要使用不同的协议去解析这些信息,这就是上文提到的「驱动层」。 通俗地讲就是把传感器采集到的信息全部拿到,并且编码成团队可以使用的数据。 


预处理


传感器的信息拿到后会发现不是所有信息都是有用的。


传感器层将数据以一帧一帧、固定频率发送给下游,但下游是无法拿每一帧的数据去进行决策或者融合的。为什么?

 

因为传感器的状态不是 100% 有效的,如果仅根据某一帧的信号去判定前方是否有障碍物(有可能是传感器误检了),对下游决策来说是极不负责任的。因此上游需要对信息做预处理,以保证车辆前方的障碍物在时间维度上是一直存在的,而不是一闪而过。


这里就会使用到智能驾驶领域经常使用到的一个算法——卡尔曼滤波。


坐标转换


坐标转换在智能驾驶领域十分重要。


传感器是安装在不同地方的,比如毫米波(上图中紫色区域)是布置在车辆前方的;当车辆前方有一个障碍物,距离这个毫米波雷达有 50 米,那么我们就认为这个障碍物距离汽车有 50 米吗?


不是的!因为决策控制层做车辆运动规划时,是在车体坐标系下完成的(车体坐标系一般以后轴中心为 O 点),因此毫米波雷达检测到的 50 米,转换到自车坐标系下,还需要加上传感器到后轴的距离。


最终所有传感器的信息,都是需要转移到自车坐标系下的,这样所有传感器信息才能统一,供规划决策使用。


同理,摄像机一般安装在挡风玻璃下面,拿到的数据也是基于摄像机坐标系的,给下游的数据,同样需要转换到自车坐标系下。



自车坐标系:拿出你的右手,以大拇指 → 食指 → 中指 的顺序开始念  X、Y、Z。然后把手握成如下形状:



把三个轴的交点(食指根部)放在汽车后轴中心,Z 轴指向车顶,X 轴指向车辆前进方向。


各个团队可能定义的坐标系方向不一致,只要开发团队内部统一即可。


信息融合


信息融合是指把相同属性的信息进行多合一操作。


比如摄像机检测到了车辆正前方有一个障碍物,毫米波也检测到车辆前方有一个障碍物,激光雷达也检测到前方有一个障碍物,而实际上前方只有一个障碍物,所以我们要做的是把多传感器下这辆车的信息进行一次融合,以此告诉下游,前面有一辆车,而不是三辆车。



决策规划


这一层次主要设计的是拿到融合数据后,如何正确做规划。规划包含纵向控制和横向控制:纵向控制即速度控制,表现为什么时候加速,什么时候制动;横向控制即行为控制,表现为 什么时候换道,什么时候超车等。


个人对这一块不是很了解,不敢妄作评论。


软件长什么样子?


自动驾驶系统中的部分软件看起来和下面类似。



软件的名字反映了该软件的实际作用:


  • app_driver_camera:摄像机驱动

  • app_driver_hdmap:高精度地图驱动

  • app_driver_ins:惯导驱动

  • app_driver_lidar:激光传感器驱动

  • app_driver_mwr:毫米波传感器驱动

  • app_fusion_freespace:自由行驶区域融合

  • app_fusion_lane:车道线融合

  • app_fusion_obstacle:障碍物融合 

  • app_planning&decision:规划决策 


然而实际上攻城狮们会编写一些其他软件用于自己的调试工作,比如记录数据和回放数据的工具。



还有用于传感器信息显示的可视化程序,类似下图的效果。



掌握了软件的思路,那么我们来看你都要做哪些准备。


准备


操作系统安装


既然是做软件,首先得有个操作系统。常见的操作系统 Windows/Linux/Mac...(打...的操作系统我也没用过),考虑到社区支持、开发效率,推荐使用 Linux 作为无人驾驶研究的操作系统。


大部分做无人驾驶的团队都用的 Linux,跟着大趋势走,可以省很多事。


Linux 又分为很多版本,最常用且普及率很高的当属 Ubuntu 系列。虽然 Ubuntu 已更新至 17.04,但从稳定性上,推荐安装 14.04 版本。


推荐用一块单独的 SSD 安装 Linux,或者使用虚拟机安装,最不推荐装双系统(不太稳定)奉上 Linux Ubuntu 14.04 安装包 + 虚拟机安装方法。(链接:http://pan.baidu.com/s/1jIJNIPg 密码:147y。)



Linux 基本指令


作为 Linux 的核心——命令行操作不仅对开发大有帮助,而且是装 X 利器。另一个好处是使用指令 apt-get install,可以快捷地完成很多软件的安装,不用像 Windows 那样,在网上四处寻觅适配的安装包。Linux 的指令很多,而且比较杂,使用起来需要多学,多用。


开发环境安装


开发环境会涉及很多实际使用的库,不同的程序员处理相同的问题,可能使用不同的库。下面通过安装我在工作和学习中经常使用到的库,抛砖引玉,将开发者「引进门」。


搭建环境所需安装包:



(链接:http://pan.baidu.com/s/1sllta5v 密码:eyc8)


附:开发环境介绍


集成开发环境 IDE


前面安装了一款开源的 IDE qt,目前 qt 在 Linux 中的地位,就和 Visual Studio 在  Windows 中的地位一样。除非是不使用 IDE 开发的高玩,大部分在 Linux 下做开发的团队还是会选择用 qt 开发的。


qt 的主要作用是做交互式的界面,比如在界面中显示当前传感器采集到的各种信息。界面交互会明显加快开发者调试程序和标定参数的过程。


Tips:

  • 熟悉 qt 可以网上找教程,我更推荐系统地学习,比如买一本 Qt 的书。

  • 买书或者去图书馆借书,注意看写书的日期,越新越好,太老的书,相应的版本也很旧。


OpenCV


OpenCV 是一个非常强大的库,其中封装了大量的可应用于无人驾驶研究的函数,包括各种滤波器算法、特征点提取、矩阵运算、投影坐标转换、机器学习算法等。


当然最重要的是,它在计算机视觉领域的影响力,相机标定,目标检测、识别、跟踪的接口使用起来十分方便。使用 OpenCV 库完全可以做出这张图展现的效果。



Tips:

  • 请至少购买版本为 2.4 以上的教程学习 OpenCV,但目前市面上买得到的 OpenCV 中文教程都讲的太浅,甚至连经典的 Kalman Filter 都不介绍。我推荐直接学习英文版的  Learning OpenCV3。


奉上电子版,讲解很详细,每次打印一章阅读,循序渐进。


(链接:http://pan.baidu.com/s/1dE5eom9 密码:n2dn)


libQGLViewer


libQGLViewer 是大名鼎鼎的 OpenGL 适配 qt 的一个库,编程接口及方法与 OpenGL 大同小异,我们经常在各大无人驾驶公司宣传画上看到的环境感知信息的显示,就完全可以用 QGL 做出来。



Tips:

学习 libQGLViewer 不需要购买任何教材,官网及压缩包内的 example 就是最好的老师,按照官网的tutorial,把每个例子实现一遍,就基本入门了。


官网链接:libQGLViewer Home Page


Boost


Boost 库是有着「C++准标准库」之称。这个库里面有大量的「轮子」,对于 C++ 开发者来说,方便直接调用,避免重造「轮子」。


Tips:

Boost 是基于标准 C++ 开发,其构造用尽精巧手法,不要贸然费时研读,找一份和 Boost 库相关的(电子或纸质)书,把目录读一遍,大致知道里面有哪些功能即可,需要时就某一个点,花时间做研究。


QCustomplot


除了上面提到的 libQGLViewer 外,还可以通过平面图的形式显示车载传感器的信息。鉴于 qt 内部只提供了基本的直线、圆等绘图工具,使用起来并不是很方便,因此 QCustomplot 诞生了。简单地调用 API,然后把想要显示的数据作为参数输入进去,就可以绘制出下面这些很棒的图形。而且可以很方便地拖动和缩放。


下面是我在实际开发过程中,使用 QCustomplot 显示的部分传感器信息。


Tips:

官网提供了该库的源码下载,你只需要在你的工程中导入 .cpp 和 .h 文件即可。跟着官网提供的 tutorials 学习,可以快速上手。对照着 example 中的例程写代码,可以快速把自己的数据变成可视化图像。


LCM(Lightweight Communications and Marshalling)


团队开发软件必然存在程序(多进程)的通信问题,多进程通信的方式很多,也各有优缺点,使用起来就见仁见智了。2014 年 12 月 MIT 公布了他们在美国 DARPA 机器人挑战赛中使用到的信号传输机制 LCM,出处:MIT releases LCM driver for MultiSense SL。


LCM 含多种语言如 java,c++ 等专门针对实时系统在高带宽和低的延迟的情况下进行消息发送和数据封送处理。它提供了一个发布/订阅消息模型、自动封装/解封代码生成工具含多种编程语言版本。这个模式和 ROS 现在节点间的通信方式很类似。


Tips:

LCM 两个进程间通信的 demo 官网上有源代码,按照官网上的 tutorial 就能快速建立属于你自己的 LCM 通信机制。


官方网站:LCM Projcect


Git & Github


Git 是团队开发不可缺少的版本控制工具,大家在写论文时肯定每天一个版本,如果没有特别标注每个版本改了些什么时间久了就会忘记。写代码更是如此。


使用 Git 可以极大地提高多人开发的效率,而且版本管理规范,代码追溯起来十分方便。


Github 在软件开发领域如雷贯耳,需要某些代码时,直接上去搜索即可。


Tips:

目前世面上介绍 Git 的书,让人看起来十分吃力,而且对细枝末节的东西介绍地太过深入,让人无法快速上手。


于是我要强烈推荐 Git 入门的教程:廖雪峰的 Git 教程,浅显易懂,而且还配合图文+视频,简直良心。


以上基本介绍完了,掌握好这些东西,你就变成无人驾驶领域的老司机了。

AI先锋

ID:EnlightAI

关注人工智能行业发展,介绍人工智能技术与产品

自动驾驶汽车硬件系统概述.pdf 目前绝大多数自动驾驶研发车都是改装车辆,相关传感器加装到 车顶,改变车辆的动力学模型;改装车辆的刹车和转向系统,也缺乏 不同的工况和两冬一夏的测试。图中Uber研发用车是SUV车型自身 重心就较高,车顶加装的设备进一步造成重心上移,在避让转向的过 程中转向过急过度,发生碰撞时都会比原车更容易侧翻 硬件在环 司机在环 甚于模器仿真 基于车辆执行 基于实腭道 基于必要的硬件平台 软件在环 车辆在环 自动驾驶研发仿真测试流程 所以在自动驾驶中,安全是自动驾驶技术开发的第一天条。为了 降低和避免实际道路测试中的风险,在实际道路测试前要做好充分的 仿真、台架、封闭场地的测试验证。 软件在环( Software in loop),通过软件仿真来构建自动驾驶 所需的各类场景,复现真实世界道路交通环境,从而进行自动驾驶技 术的开发测试工作。软件在环效率取决于仿真软件可复现场景的程度。 对交通环境与场景的模拟,包括复杂交通场景、真实交通流、自然天 气(雨、雪、雾、夜晚、灯光等)各种交通参与者(汽车、摩托车、 自行车、行人等)。采用软件对交通场景、道路、以及传感器模拟仿 真可以给自动驾驶的环境感知提供卡富的输入可以对算法进行验证 和测试 硬件在环(Hard- ware in1oop),各种传感器类似人的眼睛和 耳朵,作为自动驾驶系统的感知部分,该部分的性能决定了自动驾驶 车辆能否适应复杂多变的交通环境。包括,摄像头、毫米波雷达、超 声波雷达、激光雷达。针对不同的传感器,硬件在环会根据不同的传 感器和环境因素来部署。 车辆在环( Vehicle in loop),车辆执行系统向传动系统发出 执行命令来控制车辆,在自动驾驶中取代了人类的手脚。自动驾驶系 统的执行控制优劣决定了车辆是否能够安仝舒适的行驶。车辆运行在 空旷的场地上,自动驾驶系统感知系统模拟的虚拟场景,自动驾驶系 统根据虚拟的场景发出控制指令,再通过传感器将车辆的实轨迹反 馈到虚拟环境中,实珌真车与虚拟环境的融合,从而进行车辆操控的 验证 司机在环( Driver in loop),基于实时仿真技术开发,结合驾 驶员的实际行为,可以实现对车辆和自动驾驶技术开发测试做出主观 的评价。可机在环,可以一方面获得司机的主观评价,另一方面可以 验证人机共驾驶的功能。 自动驾驶系统的硬件架构 就整体而言,汽车是个全社会化管理的产品,其固有的行业特点 是相对保守的。在人工智能的大潮下,面对造车新势力和消费者需求 变化的冲击,传统汽车行业渐进式的创新方法已经面临巨大的挑战。 急需改变传统的架构和方法不断创新。自动驾驶幣体的硬件架构不光 要考虑系统本身也要考虑人的因素 腰性 酒 司 全雪 快冒 计算单元 m 感知 决策 控制 自动驾驶硬件架构 自动驾驶系统主要包含三个部分:感知、决策、控制。从整个 硬件的架构上也要充分考虑系统感知、决策、控制的功能要求。整 体设计和生产上要符合相关车规级标准,如IS026262、AECQ-100、 TS16949等相关认证和标准。目前L1、L2、ADAS系统的硬件架构体 系和供应链相对完善符合车规级要求。 感知层:依赖大量传感器的数据,分为车辆运动、环境感知、 驾驶员检测三大类。 车辆运动传感器:速度和角度传感器提供车辆线控系统的相关横 行和纵向信息。惯性导航+全球定位系统=组合导航,提供全姿态信息 参数和高精度定位信息。 环境感知传感器:负责环境感知的传感器类似于人的视觉和听觉, 如果没有环境感知传感器的支撑,将无法实现自动驾驶功能。主要依 靠激光雷达、摄像头、亳米波雷达的数据融合提供给计算单元进行算 法处理。w2X就是周围一切能与车辆发生关的事物进行通信,包括V2V 车辆通信技术、V2Ⅰ与基础设施如红绿灯的通信技术、V2P车辆与行 人的通信。 驾驶员监测传感器:基于摄像头的非接触式和基于生物电传感器 的接触式。通过方向盘和仪表台内集成的传感器,将驾驶员的面部细 节以及心脏、脑电等部位的数据进行收集,再根据这些部位数据变化, 判断驾驶员是否处于走神和疲劳驾驶状态。 计算单元部分:各类传感器采集的数据统一到计算单元处理,为 了保证自动驾驶实时性要求,软件响应最大延迟必须在可接受的 围内,这对计算的要求非常高。目前主流的解决方案有基于GPU、FPGA ASIC等 车辆控制:自动驾驶需要用电信号控制车辆的转向、制动、油门 系统,其中涉及到车辆地盘的线控改装,目前在具备自适应巡航、紧 急制动、白动泊车功能的车上可以直接借用原车的系统,通过CAN总 线控制而不需要过度改装 警告系统:主要是通过声音、图像、振动提醒司机注意,通过HMI 的设计有效减少司机困倦、分心的行为。 、自动驾驶的传感器 光雷詁 围憬头 毫来述 组合导 自动驾驶的传感
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值