多传感器信息融合的典型应用_开发者说丨手把手教你实现多传感器融合技术

d4408561169663387d5c5680c0b5730c.png

知识点敲黑板,本文需要学习的知识点有 频率位置 径向距离角度 时间戳观测值  

多传感器融合又称多传感器信息融合(multi-sensor information fusion),有时也称多传感器数据融合(multi-sensor date fusion)。就是利用计算机技术将来自多传感器多源的信息数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程。

多传感器信息融合技术的基本原理就像人的大脑综合处理信息的过程一样,将各种传感器进行多层次多空间的信息互补和优化组合处理,最终产生对观测环境的一致性解释。在这个过程中要充分地利用多源数据进行合理支配与使用,而信息融合的最终目标则是基于各传感器获得的分离观测信息,通过对信息多级别、多方面组合导出更多有用信息。这不仅是利用了多个传感器相互协同操作的优势,而且也综合处理了其它信息源的数据来提高整个传感器系统的智能化。

虽然自动驾驶在全球范围内已掀起浪潮,但是从技术方面而言依然存在挑战。目前自动驾驶的痛点在于稳定可靠的感知及认知,包括清晰的视觉优质的算法多传感器融合以及高效强大的运算能力。据分析,由自动驾驶引发的安全事故原因中,相关传感器的可能误判也成为了主要原因之一。多个传感器信息融合、综合判断无疑成为提升自动驾驶安全性及赋能车辆环境感知的新趋势。

本文由百度Apollo智能汽车事业部 自动驾驶工程师——陈光撰写,对实现多传感器融合技术进行了详细讲解,希望感兴趣的开发者能通过阅读这篇文章有所收获。

  以下,ENJOY  

58b553510143c3e639931433b4af5bb7.png

《开发者说 | 手把手教你写卡尔曼滤波器》的分享中,以激光雷达的数据为例介绍了卡尔曼滤波器(KF)的七个公式,并用C++代码实现了激光雷达障碍物的跟踪问题;在《开发者说 | 手把手教你写扩展卡尔曼滤波器》的分享中,以毫米波雷达的数据为例,介绍了扩展卡尔曼滤波器(EKF)是如何处理非线性问题的。

无论是卡尔曼滤波器处理线性问题还是扩展卡尔曼滤波器处理非线性问题,它们都只涉及到单一传感器的障碍物跟踪。单一传感器有其局限性,比如激光雷达测量位置更准,但无法测量速度;毫米波雷达测量速度准确,但在位置测量的精度上低于激光雷达。为了充分利用各个传感器的优势,多传感器融合的技术应运而生。

由于多传感器融合为KF和EKF的进阶内容,推荐读者先阅读《开发者说 | 手把手教你写卡尔曼滤波器》《开发者说 | 手把手教你写扩展卡尔曼滤波器》,了解卡尔曼滤波器的基本理论。

本文将以激光雷达毫米波雷达检测同一障碍物时的数据为例,进行多传感器融合技术的讲解。同时,会提供《优达学城(Udacity)无人驾驶工程师学位》中所使用的多传感器数据,并提供读取数据的代码,方便大家学习。

多传感器融合的输入数据可通过以下链接获取。

链接:

https://pan.baidu.com/s/1zU9_SgZkMfs75_sXt2Odzw  

提取码:umb8

21d9a1a082ddfd9baf12902cb3c47bc5.png

3057f6720876563017698521b7cfebbc.png

下载代码并解压后,可在data目录下发现一个名为sample-laser-radar-measurement-data-2.txt的文件,这就是传感器融合的输入数据。数据的测量场景是将检测障碍物频率相同的激光雷达和毫米波雷达固定在原点(0,0)处,随后两个雷达交替触发,对同一运动的障碍物进行检测。

障碍物的运动轨迹如下图所示,图中绿线为障碍物运动的真实运动轨迹(Ground Truth),橙色的点表示的是多传感器的检测结果。

c6b00e85af17bc4242b09e57953c5dd9.png

▲障碍物的运动轨迹

由于激光雷达和毫米波雷达是交替触发检测的,因此系统收到的传感器数据也是交替的。这里的数据除了提供传感器的测量值外,还提供了障碍物位置速度的真值,真值可用于评估融合算法的好坏。前十帧(行)数据如下图所示:

681e57d0271d56afd4443334a979b9c1.png

每帧数据的第一个字母表示该数据来自于哪一个传感器,L是Lidar的缩写,R是Radar的缩写。

Lidar只能够测量位置,字母L之后的数据依次为障碍物在X方向上的测量值(单位:米),Y方向上的测量值(单位:米),测量时刻的时间戳(单位:微秒);障碍物位置在X方向上的真值(单位:米),障碍物位置在Y方向上的真值(单位:米);障碍物速度在X方向上的真值(单位:米/秒),障碍物速度在Y方向上的真值(单位:米/秒)。

Radar能够测量径向距离角度速度,字母R之后的数据依次为障碍物在极坐标系下的距离(单位:米),角度(单位:弧度),镜像速度(单位:米/秒),测量时刻的时间戳(单位:微秒);障碍物位置在X方向上的真值(单位:米),障碍物位置在Y方向上的真值(单位:米);障碍物速度在X方向上的真值(单位:米/秒),障碍物速度在Y方向上的真值(单位:米/秒)。

使用以上规则对输入数据进行解析,有些类似于无人驾驶技术中的驱动层。sample-laser-radar-measurement-data-2.txt就像传感器通过CAN或以太网发来的数据,这里的解析规则就像解析CAN或网络数据时所用的协议。

编程时,我先读取了sample-laser-radar-measurement-data-2.txt文件,将每一行数据按照“协议”解析后,将观测值转存在结构体MeasurementPackage内,将真值转存在结构体GroundTruthPackage内。随后再用一个循环对这些数据进行遍历,将它们一帧帧地输入到算法中,具体代码可以参看main.cpp函数。

MeasurementPackage的内部构造如下所示:

//@ filename: /interface/measurement_package.h
#ifndef MEASUREMENT_PACKAGE_H_
#define MEASUREMENT_PACKAGE_H_

#include "Eigen/Dense"

class MeasurementPackage {
public:
long long timestamp_;

enum SensorType{
LASER,
RADAR
} sensor_type_;

Eigen::VectorXd raw_measurements_;
};

#endif /* MEASUREMENT_PACKAGE_H_ */

GroundTruthPackage的内部构造如下所示:

//@ filename: /interface/ground_truth_package.h
#ifndef GROUND_TRUTH_PACKAGE_H_
#define GROUND_TRUTH_PACKAGE_H_

#include "Eigen/Dense"

class GroundTruthPackage {
public:
long timestamp_;

enum SensorType{
LASER,
RADAR
} sensor_type_;

Eigen::VectorXd gt_values_;

};

#endif /* GROUND_TRUTH_PACKAGE_H_ */

4408c1b1c169f76480ee5857548483a0.png

由于激光雷达和毫米波雷达的传感器数据有所差异,因此算法处理时也有所不同,先罗列出一个初级的融合算法框架,如下图所示。

c4e4eecf4292faed4062e5e88d39f92e.png

▲图片出处:优达学城(Udacity)无人驾驶工程师学位

首先读入传感器数据,如果是第一次读入,则需要对卡尔曼滤波器的各个矩阵进行初始化操作;如果不是第一次读入,证明卡尔曼滤波器已完成初始化,直接进行状态预测状态值更新的步骤;最后输出融合后的障碍物位置、速度

我们将以上过程写成伪代码,方便我们理解随后的开发工作。

d27268b239311c46299a6d50f60fbec6.png

▲传感器融合伪代码

通过对比《开发者说 | 手把手教你写卡尔曼滤波器》《开发者说 | 手把手教你写扩展卡尔曼滤波器》中的KF与EKF的代码会发现,对于匀速运动模型,KF和EKF的状态预测(Predict)过程是一样的;KF和EKF唯一区别的地方在于测量值更新(Update)这一步。在测量值更新中,KF使用的测量矩阵H是不变的,而EKF的测量矩阵H是Jacobian矩阵

因此,我们可以将KF和EKF写成同一个类,这个类中有两个Update函数,分别命名为KFUpdate和EKFUpdate。这两个函数对应着伪代码中第12行的“卡尔曼滤波更新”和第15行的“扩展卡尔曼滤波更新”。

根据卡尔曼滤波器的预测测量值更新这两大过程,我们将算法逻辑细化,如下图所示。

4736980c563417e23ade017fbd85059d.png

▲图片出处:优达学城(Udacity)无人驾驶工程师学位

接下来我们合并KF和EKF的跟踪算法的代码,将他们封装在一个名为KalmanFilter的类中,方便后续调用,改写后的KalmanFilter类如下所示:

//@ filename: /algorithims/kalman.h
#pragma once

#include "Eigen/Dense"

class KalmanFilter {
public:

KalmanFilter();
~KalmanFilter();

void Initialization(Eigen::VectorXd x_in);

bool IsInitialized();

void SetF(Eigen::MatrixXd F_in);

void SetP(Eigen::MatrixXd P_in);

void SetQ(Eigen::MatrixXd Q_in);

void SetH(Eigen::MatrixXd H_in);

void SetR(Eigen::MatrixXd R_in);

void Prediction();

void KFUpdate(Eigen::VectorXd z);

void EKFUpdate(Eigen::VectorXd z);

Eigen::VectorXd GetX();

private:

void CalculateJacobianMatrix();

// flag of initialization
bool is_initialized_;

// state vector
Eigen::VectorXd x_;

// state covariance matrix
Eigen::MatrixXd P_;

// state transistion matrix
Eigen::MatrixXd F_;

// process covariance matrix
Eigen::MatrixXd Q_;

// measurement matrix
Eigen::MatrixXd H_;

// measurement covariance matrix
Eigen::MatrixXd R_;
};
//@ filename: /algorithims/kalman.cpp
#include "kalmanfilter.h"


KalmanFilter::KalmanFilter()
{
is_initialized_ = false;
}

KalmanFilter::~KalmanFilter()
{

}

void KalmanFilter::Initialization(Eigen::VectorXd x_in)
{
x_ = x_in;
}

bool KalmanFilter::IsInitialized()
{
return is_initialized_;
}

void KalmanFilter::SetF(Eigen::MatrixXd F_in)
{
F_ = F_in;
}

void KalmanFilter::SetP(Eigen::MatrixXd P_in)
{
P_ = P_in;
}

void KalmanFilter::SetQ(Eigen::MatrixXd Q_in)
{
Q_ = Q_in;
}

void KalmanFilter::SetH(Eigen::MatrixXd H_in)
{
H_ = H_in;
}

void KalmanFilter::SetR(Eigen::MatrixXd R_in)
{
R_ = R_in;
}

void KalmanFilter::Prediction()
{
x_ = F_ * x_;
Eigen::MatrixXd Ft = F_.transpose();
P_ = F_ * P_ * Ft + Q_;
}

void KalmanFilter::KFUpdate(Eigen::VectorXd z)
{
Eigen::VectorXd y = z - H_ * x_;
Eigen::MatrixXd Ht = H_.transpose();
Eigen::MatrixXd S = H_ * P_ * Ht + R_;
Eigen::MatrixXd Si = S.inverse();
Eigen::MatrixXd K =  P_ * Ht * Si;
x_ = x_ + (K * y);
int x_size = x_.size();
Eigen::MatrixXd I = Eigen::MatrixXd::Identity(x_size, x_size);
P_ = (I - K * H_) * P_;
}

void KalmanFilter::EKFUpdate(Eigen::VectorXd z)
{
double rho = sqrt(x_(0)*x_(0) + x_(1)*x_(1));
double theta = atan2(x_(1), x_(0));
double rho_dot = (x_(0)*x_(2) + x_(1)*x_(3)) / rho;
Eigen::VectorXd h = Eigen::VectorXd(3);
h <Eigen::VectorXd y = z - h;

CalculateJacobianMatrix();

Eigen::MatrixXd Ht = H_.transpose();
Eigen::MatrixXd S = H_ * P_ * Ht + R_;
Eigen::MatrixXd Si = S.inverse();
Eigen::MatrixXd K =  P_ * Ht * Si;
x_ = x_ + (K * y);
int x_size = x_.size();
Eigen::MatrixXd I = Eigen::MatrixXd::Identity(x_size, x_size);
P_ = (I - K * H_) * P_;
}

Eigen::VectorXd KalmanFilter::GetX()
{
return x_;
}

void KalmanFilter::CalculateJacobianMatrix()
{
Eigen::MatrixXd Hj(3, 4);

// get state parameters
float px = x_(0);
float py = x_(1);
float vx = x_(2);
float vy = x_(3);

// pre-compute a set of terms to avoid repeated calculation
float c1 = px * px + py * py;
float c2 = sqrt(c1);
float c3 = (c1 * c2);

// Check division by zero
if(fabs(c1) 0.0001){
    H_ = Hj;
    return;
}

Hj <0, 0,
     -(py/c1), (px/c1), 0, 0,
      py*(vx*py - vy*px)/c3, px*(px*vy - py*vx)/c3, px/c2, py/c2;
H_ = Hj;
}

KalmanFilter类封装了卡尔曼滤波的七个公式,专门用于实现障碍物的跟踪。为了使代码尽可能解耦且结构清晰,我们新建一个名为SensorFusion的类。这个类的作用是将数据层和算法层隔离开。即使外部传入的数据结构(接口)发生变化,修改SensorFusion类即可完成数据的适配,而不用修改KalmanFilter算法部分的代码,增强算法的复用性。

在SensorFusion类中添加一个函数Process()用于传入观测值,并在函数Process()中调用算法。如下图所示,在k+1时刻收到激光雷达数据时,根据k时刻的状态完成一次预测,再根据k+1时刻的激光雷达的观测数据实现测量值更新(KFUpdate);在k+2时刻收到毫米波雷达的数据时,根据k+1时刻的状态完成一次预测,再根据k+2时刻的毫米波雷达的观测数据实现测量值更新(EKFUpdate)。

e880d1dcb84870863fcca6f5ec612b6e.png

▲图片出处:优达学城(Udacity)无人驾驶工程师学位

将以上过程转换为代码,在SensorFusion中实现,如下所示:

//@ filename: /algorithims/sensorfusion.h
#pragma once

#include "interface/measurement_package.h"
#include "kalmanfilter.h"

class SensorFusion {
public:
SensorFusion();
~SensorFusion();

void Process(MeasurementPackage measurement_pack);
KalmanFilter kf_;

private:
bool is_initialized_;
long last_timestamp_;
Eigen::MatrixXd R_lidar_;
Eigen::MatrixXd R_radar_;
Eigen::MatrixXd H_lidar_;
};
//@ filename: /algorithims/sensorfusion.cpp
#include "sensorfusion.h"

SensorFusion::SensorFusion()
{
is_initialized_ = false;
last_timestamp_ = 0.0;

// 初始化激光雷达的测量矩阵 H_lidar_
// Set Lidar's measurement matrix H_lidar_
H_lidar_ = Eigen::MatrixXd(2, 4);
H_lidar_ <1, 0, 0, 0,
            0, 1, 0, 0;

// 设置传感器的测量噪声矩阵,一般由传感器厂商提供,如未提供,也可通过有经验的工程师调试得到
// Set R. R is provided by Sensor supplier, in sensor datasheet
// set measurement covariance matrix
R_lidar_ = Eigen::MatrixXd(2, 2);
R_lidar_ <0.0225, 0,
            0, 0.0225;

// Measurement covariance matrix - radar
R_radar_ = Eigen::MatrixXd(3, 3);
R_radar_ <0.09, 0, 0,
            0, 0.0009, 0,
            0, 0, 0.09;
}

SensorFusion::~SensorFusion()
{

}

void SensorFusion::Process(MeasurementPackage measurement_pack)
{
// 第一帧数据用于初始化 Kalman 滤波器
if (!is_initialized_) {
    Eigen::Vector4d x;
    if (measurement_pack.sensor_type_ == MeasurementPackage::LASER) {
        // 如果第一帧数据是激光雷达数据,没有速度信息,因此初始化时只能传入位置,速度设置为0
        x <0], measurement_pack.raw_measurements_[1], 0, 0;
    } else if (measurement_pack.sensor_type_ == MeasurementPackage::RADAR) {
        // 如果第一帧数据是毫米波雷达,可以通过三角函数算出x-y坐标系下的位置和速度
        float rho = measurement_pack.raw_measurements_[0];
        float phi = measurement_pack.raw_measurements_[1];
        float rho_dot = measurement_pack.raw_measurements_[2];
        float position_x = rho * cos(phi);
        if (position_x 0.0001) {
            position_x = 0.0001;
        }
        float position_y = rho * sin(phi);
        if (position_y 0.0001) {
            position_y = 0.0001;
        }
        float velocity_x = rho_dot * cos(phi);
        float velocity_y = rho_dot * sin(phi);
        x <    }

    // 避免运算时,0作为被除数
    if (fabs(x(0)) 0.001) {
        x(0) = 0.001;
    }
    if (fabs(x(1)) 0.001) {
        x(1) = 0.001;
    }
    // 初始化Kalman滤波器
    kf_.Initialization(x);

    // 设置协方差矩阵P
    Eigen::MatrixXd P = Eigen::MatrixXd(4, 4);
    P <1.0, 0.0, 0.0, 0.0,
         0.0, 1.0, 0.0, 0.0,
         0.0, 0.0, 1000.0, 0.0,
         0.0, 0.0, 0.0, 1000.0;
    kf_.SetP(P);

    // 设置过程噪声Q
    Eigen::MatrixXd Q = Eigen::MatrixXd(4, 4);
    Q <1.0, 0.0, 0.0, 0.0,
         0.0, 1.0, 0.0, 0.0,
         0.0, 0.0, 1.0, 0.0,
         0.0, 0.0, 0.0, 1.0;
    kf_.SetQ(Q);

    // 存储第一帧的时间戳,供下一帧数据使用
    last_timestamp_ = measurement_pack.timestamp_;
    is_initialized_ = true;
    return;
}

// 求前后两帧的时间差,数据包中的时间戳单位为微秒,处以1e6,转换为秒
double delta_t = (measurement_pack.timestamp_ - last_timestamp_) / 1000000.0; // unit : s
last_timestamp_ = measurement_pack.timestamp_;

// 设置状态转移矩阵F
Eigen::MatrixXd F = Eigen::MatrixXd(4, 4);
F <1.0, 0.0, delta_t, 0.0,
     0.0, 1.0, 0.0, delta_t,
     0.0, 0.0, 1.0, 0.0,
     0.0, 0.0, 0.0, 1.0;
kf_.SetF(F);

// 预测
kf_.Prediction();

// 更新
if (measurement_pack.sensor_type_ == MeasurementPackage::LASER) {
    kf_.SetH(H_lidar_);
    kf_.SetR(R_lidar_);
    kf_.KFUpdate(measurement_pack.raw_measurements_);
} else if (measurement_pack.sensor_type_ == MeasurementPackage::RADAR) {
    kf_.SetR(R_radar_);
    // Jocobian矩阵Hj的运算已包含在EKFUpdate中
    kf_.EKFUpdate(measurement_pack.raw_measurements_);
}
}

fd784b9217d473a953eadf9bcb11de2f.png

完成传感器数据的读取和融合算法的编写后,我们将两者组合起来,写在main.cpp中,输出每一帧的障碍物融合结果。

//@ filename: main.cpp
#include 
#include 
#include 
#include 
#include 
#include "Eigen/Eigen"
#include "interface/ground_truth_package.h"
#include "interface/measurement_package.h"
#include "algorithims/sensorfusion.h"

int main(int argc, char* argv[]) {

// 设置毫米波雷达/激光雷达输入数据的路径
// Set radar & lidar data file path
std::string input_file_name = "../data/sample-laser-radar-measurement-data-2.txt";

// 打开数据,若失败则输出失败信息,返回-1,并终止程序
// Open file. if failed return -1 & end program
std::ifstream input_file(input_file_name.c_str(), std::ifstream::in);
if (!input_file.is_open()) {
    std::cout <"Failed to open file named : " <    return -1;
}

// 分配内存
// measurement_pack_list:毫米波雷达/激光雷达实际测得的数据。数据包含测量值和时间戳,即融合算法的输入。
// groundtruth_pack_list:每次测量时,障碍物位置的真值。对比融合算法输出和真值的差别,用于评估融合算法结果的好坏。
std::vector measurement_pack_list;
std::vector groundtruth_pack_list;// 通过while循环将雷达测量值和真值全部读入内存,存入measurement_pack_list和groundtruth_pack_list中// Store radar & lidar data into memory
std::string line;while (getline(input_file, line)) {
    std::string sensor_type;
    MeasurementPackage meas_package;
    GroundTruthPackage gt_package;
    std::istringstream iss(line);long long timestamp;// 读取当前行的第一个元素,L代表Lidar数据,R代表Radar数据// Reads first element from the current line. L stands for Lidar. R stands for Radar.
    iss >> sensor_type;if (sensor_type.compare("L") == 0) {// 激光雷达数据 Lidar data// 该行第二个元素为测量值x,第三个元素为测量值y,第四个元素为时间戳(纳秒)// 2nd element is x; 3rd element is y; 4th element is timestamp(nano second)
        meas_package.sensor_type_ = MeasurementPackage::LASER;
        meas_package.raw_measurements_ = Eigen::VectorXd(2);float x;float y;
        iss >> x;
        iss >> y;
        meas_package.raw_measurements_ <        iss >> timestamp;
        meas_package.timestamp_ = timestamp;
        measurement_pack_list.push_back(meas_package);
    } else if (sensor_type.compare("R") == 0) {// 毫米波雷达数据 Radar data// 该行第二个元素为距离pho,第三个元素为角度phi,第四个元素为径向速度pho_dot,第五个元素为时间戳(纳秒)// 2nd element is pho; 3rd element is phi; 4th element is pho_dot; 5th element is timestamp(nano second)
        meas_package.sensor_type_ = MeasurementPackage::RADAR;
        meas_package.raw_measurements_ = Eigen::VectorXd(3);float rho;float phi;float rho_dot;
        iss >> rho;
        iss >> phi;
        iss >> rho_dot;
        meas_package.raw_measurements_ <        iss >> timestamp;
        meas_package.timestamp_ = timestamp;
        measurement_pack_list.push_back(meas_package);
    }// 当前行的最后四个元素分别是x方向上的距离真值,y方向上的距离真值,x方向上的速度真值,y方向上的速度真值// read ground truth data to compare laterfloat x_gt;float y_gt;float vx_gt;float vy_gt;
    iss >> x_gt;
    iss >> y_gt;
    iss >> vx_gt;
    iss >> vy_gt;
    gt_package.gt_values_ = Eigen::VectorXd(4);
    gt_package.gt_values_ <    groundtruth_pack_list.push_back(gt_package);
}
std::cout <"Success to load data." <// 部署跟踪算法
SensorFusion fuser;for (size_t i = 0; i     fuser.Process(measurement_pack_list[i]);
    Eigen::Vector4d x_out = fuser.kf_.GetX();// 输出跟踪后的位置
    std::cout <"x " <0)
              <" y " <1)
              <" vx " <2)
              <" vy " <3) 
              <}
}

将融合结果与真值绘制在同一坐标系下,即可看到融合的实际效果,如下图所示。

55e84fdd65ec28cee2490e458621e4b7.png

▲融合结果与真值对比

由图可以看出,融合结果与真值基本吻合,这只是定性的分析,缺乏定量的描述。随后课程介绍了一种定量分析的方式——均方根误差(RMSE,Root Mean Squared Error),其计算方式是预测值与真实值偏差的平方与观测次数n比值的平方根,如下公式所示:

cfcb0aa5f62dabf530d69b9b5edc0620.png

▲均方根误差计算公式

分别计算x、y、vx和vy的RMSE,如果RMSE的值越小,则证明结果与真值越接近,跟踪效果越好。

《优达学城(Udacity)无人驾驶工程师学位》在课程中提供了一个比较方便的可视化工具,用于实时显示障碍物的跟踪状态和RMSE的值。如下视频所示,视频中红点蓝点分别表示Radar和Lidar的测量位置,绿点表示多传感器融合后的输出结果,真值为小车所在的位置。

▲多传感器融合

25b124dbf3cdd92ea36a1eaf568b3862.png

以上就是多传感器融合的技术原理和编程思路。完整版的代码和搭建Linux开环境的方法,可以关注微信公众号【自动驾驶干货铺】,回复【传感器融合】获取。

作为入门课程,本次分享仅仅介绍了激光雷达和毫米波雷达对单一障碍物的融合。实际工程开发时,多传感器融合算法工程师除了要掌握融合算法的理论和编码外,还要学习不同传感器(激光雷达、毫米波雷达、摄像机等)的数据特性和相应的障碍物检测算法,这样才能在各种传感器之间游刃有余。

27a4015e130a0b87e805cb59b1eeb0e0.png

*《优达学城(Udacity)无人驾驶工程师学位》

【http://link.zhihu.com/target=https%3A//cn.udacity.com/course/self-drivingcar-engineer--nd013】

更多话题讨论、技术交流

可以添加Apollo小哥哥为好友

进开发者交流群

e50f487237e02cbd35dfc6cfeda1b721.png

7cf683c55fb3480d4c710b929160540e.gif

059ece9b17c513e523227d0346f07da5.png

* 以上内容为开发者原创,不代表百度官方言论。

内容来自开发者知乎专栏:

dd925d4a68357b52a44a32a24c9d3304.png

9f9f2bbf41a427dc68ffe4a2019d17b5.png

fdcbaa520c247beef1e266885aa5c5ab.png

deb743f5a553e62d1b3c2bcc5e843e8f.png

cf2c762f425a2a97cd1fe0aac1fa7bc8.png

cce687c696d879325eee0e5d07625a7c.gif

45191359934b5d0e4353ee7388c2b43b.gif

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值