On Real-Time LIDAR Data Segmentation and Classification

On Real-Time LIDAR Data Segmentation and Classification解读

这篇论文是2013年在拉斯维加斯召开的国际图像处理、计算机视觉和模式识别大会(IPCV)的一篇论文(PS:怎么感觉没听过这个会议,在谷歌搜索上还是被引用了12次)。
原文地址On Real-Time LIDAR Data Segmentation and Classification
翻译的话,有道,谷歌,百度都OK。这里就不放翻译了,我也是用翻译工具翻译的。。。

概述

一、主要内容:这篇论文就是把另外有两篇论文里面的空中和地面激光雷达采集的大型静态三维点云中城市目标自动分类的方法扩展到实时应用。
二、解决问题:实时分割地面点。
三、存在问题:
个人觉得在准确性方面很大可能性存在问题,因为用高程图的方法,处理速度很快,但是进行的分格处理,即使得到了障碍物点,也丢失了很多的数据,而丢失的这些数据里面有可能会存在着有用数据,而且在处理斜面路段的时候也不是能很好处理,如果把先验阈值T设置大点,很有可能会把障碍物点当作斜面,比如文中T设置为1,但是道路上依旧有高度小于1的障碍物,比如一块大石头,如果把T设置小点,就可能把斜面误判成障碍物。还有就是悬挂障碍物的问题,不过悬挂障碍物的问题,以前看过的有文章已经解决了(PS:上述仅为个人猜想加理解,并没有去实验取证。如有错误,还请指正0-0)

方法

文章里面提到了两种,一种是矩形网格的方法,一种是径向网格的方法。思路都一样,只是长宽的域变了,在矩形网格中,长宽取激光雷达载体坐标系下的x与y轴坐标,在径向网格中,长宽取的是点到激光雷达的距离跟水平旋转角度。

矩形网格

下面的这个流程图取自原文,已经能很直观的说明这个矩形网格怎么弄了
这个
上边的流程图就是矩形 网格的过程,先从点云输入一个点,然后通过公式得出这个点是属于哪一个网格,再在垂直方向上分格,分辨率为h,最后记录每个网格的里面的最高点与最低点,得到MAX图像与MIN图像。
本文建议的分辨率h取10cm,d取25~35cm。
在这里插入图片描述
上式中的H与W分别为雷达图像的平面上的最大长宽,最小单位为1个网格,Dmax为激光雷达能够扫射到的最远距离,d为分辨率的大小,也可以理解为网格大小。(PS:这个,个人觉得可以随便定,因为在实际中,我们并不是需要处理所有的点,比如,扫描的最远距离是200m,可能我们只需要感知100m内的距离。亦或者,我们更多的只观测前方的事物。这样能咋一定程度上减小时间开支)
接下来就是生成Diff图像
步骤:
1、对于窗口<i,j>的位置,在MIN图像中找到最小像素值Pmin及MAX图像中最大的像素值Pmax。
2、如果abs(Pmin(i,j)-Pmax(i,j)) >= T且单元格不为空,则将Diff图像位置<i,j> = 255,T为先验阈值,在论文中,作者将此阈值设置为1。
3、将窗口移动到下一个位置。
最后得到的Diff图像就是障碍物点。

径向网格

这个流程图同取自原文。。
在这里插入图片描述
在这里插入图片描述
上面的公式中的W与H是图像最大长和宽。与矩形网格一样,只不过是分格的方式有所变化,ResDeg是角度分辨率,RangRes是距离分辨率。MaxRadius与MinRadius分别是激光雷达扫射的最远距离与最近距离。

上边的流程图就是径向网格的过程,跟矩形网格类似,只不过网格的坐标从x,y方向的距离变成了角度与距离。其他一样,依然是得到Min图像与Max图像。(PS:找了半天,也没发现文章里面推荐个ResDeg与RangRes的值。。)

生成Diff图像的步骤跟矩形网格一样。。就省略了。。

然后就没有然后了。。。。。(PS:这个点云处理在分类的时候是归到人工智能类吗?无人驾驶按道理来说是人工智能类,点云分割,点云识别也有用深度学习做的,深度学习归类到人工智能也没问题,但是这种传统方法归到哪类呢?懵逼状态。。)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值