无人驾驶中使用到的常见两种sensor: Camera和LiDAR。
camera相对比较成熟,至于LiDAR的话,很多人未曾接触过,最近有人看剧说出了个“GayDAR”,有点意思。
最近在使用车规级的摄像头 Sekonix ,GMSL接口和非车规级激光雷达Velodyne LiDAR(目前市面上还未有车规级激光雷达) 。
都是运行在英伟达车规级Drive PX2(黄教主之前天天说的汽车大脑)。
在开发中发现一些基本的共性:
开发库:
1) camera依赖于OpenCV; LiDAR依赖点云库PCL,PCL国内远没有OpenCV那么火爆,不过接下来几年随着自动驾驶的对LiDAR的需求旺盛,需要去学习和了解的人肯定会越来越多;
2) camera和LiDAR都是直接获取环境信息的传感器,都可以用来做深度学习,但是LiDAR由于目前市面上最多64线束的激光雷达(据说Velodyne马上128线束,还有美国创业公司直接300线束,期待中),深度学习的算法模型少,学习到准确率也没有camera捕捉的图像视觉的好;
3) camera和LiDAR都需要做标定,在车上Drive PX2上做标定,在自动驾驶过程中,都需要转成世界坐标系;
先简单写一点,后面会逐渐深入。