Co-Fusion: Real-time Segmentation, Tracking and Fusion of Multiple Objects

这篇文章其实就是几篇文章凑在了一起.

fusion的部分用的是
ElasticFusion: Dense SLAM without a pose graph
这篇文章实现了local loop closure and global loop closure

然后他的segmentation有两种, 一种是MOTION SEGMENTATION, 它是基于超像素来做这种segmentation. 对于超像素,它用这篇文章来划分
gSLICr: SLIC superpixels at over 250Hz

划分好超像素后就用这篇文章来做segmentation
Efficient Inference in Fully Connected CRFs with Gaussian Edge Potentials

这篇文章主要需要提供unary potential and pairwise potential, 所以在co-fusion文章的VI部分有具体的提及

然后就是另一种segmentation, OBJECT INSTANCE SEGMENTATION, 这个是用deep learning来做的, 主要有两篇文章, 一篇是Learning to Segment Object Candidates

在这里插入图片描述
另一篇是Learning to Refine Object Segments

在这里插入图片描述
是它的提高版

具体的代码用图表示为
在这里插入图片描述

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Fusionlane是一种多传感器融合技术,用于车道标志语义分割。该技术通过将来自多个传感器的数据进行融合,提高了车道标志语义分割的准确性和稳定性。 传统的车道标志语义分割方法通常只使用一种传感器的数据进行分析,例如使用单个摄像头捕获的图像。然而,由于不同传感器的特点和性能各异,使用多个传感器的数据进行融合可以提供更全面和准确的信息。 Fusionlane通过整合来自多种传感器的数据,如摄像头、激光雷达、GPS等,可以综合利用各传感器的优点,弥补彼此的不足。例如,摄像头可以提供高分辨率的图像信息,激光雷达可以提供精确的距离和位置信息,GPS可以提供精确的车辆位置信息。融合这些数据可以提高车道标志语义分割的精度和鲁棒性。 Fusionlane算法首先对来自各传感器的数据进行预处理和校正,确保其在同一坐标系统和分辨率下进行比较。然后,通过使用深度学习等技术,将多传感器的数据进行融合和分析,得出车道标志的准确位置和类型。 与传统的单传感器方法相比,Fusionlane的优势在于能够提供更精确的车道标志语义分割结果。通过利用多传感器的数据,可以更有效地抑制光照变化、遮挡和噪声等问题,提高分割算法的鲁棒性。此外,融合多传感器的数据还可以提供更全面的环境感知,为自动驾驶等应用提供更准确和可靠的信息。 总之,Fusionlane是一种多传感器融合技术,用于车道标志语义分割。通过融合来自多种传感器的数据,可以提高分割的准确性和稳定性,为智能驾驶等领域的应用提供更可靠和高效的解决方案。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值