【自动驾驶感知领域目前研究热点】

本文深入探讨了自动驾驶感知领域的研究热点,包括动作识别、行人手势和人体姿态估计、复杂道路场景理解、动态场景跟踪、高精度语义分割、可行驶区域检测等。介绍了基于深度学习的FCN在可行驶区域分割中的应用,以及场景流、光流和深度估计方法。此外,还讨论了多模态感知、V2X技术及其优势,以及未来发展趋势,如图像分割方法的迭代和障碍物检测精度的提升。
摘要由CSDN通过智能技术生成

1.1感知领域目前研究热点:

动作识别、行人手势识别、人体姿态估计(骨架提取)

复杂道路场景语义理解与场景识别(模式识别)(城市道路路口、郊区直行路段……)

动态场景理解和多目标跟踪(MOT):目标外观模型、目标运动估计、目标检测、数据关联

高精度语义分割(人、车、广告牌与标志牌、车尾灯与红绿灯、可行驶区域、树木、天空……)

可行驶区域检测方法类别:

基于直接特征的可行驶区域检测

基于直接特征的可行驶区域检测:基于颜色、基于纹理、基于边缘

基于间接特征的可行驶区域检测:消失点(灭点)法,在透视变换中,视场中的平行线都会都会相交于一点,即灭点,是平行透视变换的一个交点

基于深度学习的可行驶区域检测:

语义分割(像素级分类任务)

基于FCN(全卷积网络)的可行驶区域分割(编码器-解码器架构来完成可行驶区域的模型-kittiseg)。

FCN(全卷积网络):全卷积网络采用端到端训练方法建立深度模型,完成语义分割任务。

FCN与CNN差异:传统的CNN是将传统的特征提取过程和分类器合并在一起,一般在卷积层最后有全连接层,最后一个全连接层充当分类器,输出一堆向量,对应可能的输出。而在 FCN中,用1✖️1的卷积代替卷积神经网络中的全连接层。FCN中上采样是采用反卷积的方式实现的,为了保证上采样的优化效果,用双线性插值对其初始化。

场景流(scene flow)、光流与事件相机

场景流:空间中每一点的位置信息和其相对于摄像头的运动,采用光流估计与深度估计的结合,只关注深度变化量,不关注深度绝对值

场景流应用方向:补充和改进视觉测距和SLAM算法,用于人机交互、虚拟现实和增强现实

光流估计:一种二维运动场,是空间中每一点沿摄像头平面的运动状态

光流估计方法:LK(Lucus-Kanade)算法(一种稀疏光流算法)、Flownet方法(一种基于深度学习的光流计算方法࿰

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值