DeepRoute Lab | AAAI22新工作:基于稀疏跨尺度注意力网络的高效LiDAR全景分割

By 元戎感知组

今天和大家分享工作的是自动驾驶中的点级别的全景分割感知任务。内容主要是解读我们组最新的一篇被AAAI22接收的点云全景分割的工作 Sparse Cross-scale Attention Network for Efficient LiDAR Panoptic Segmentation.

Introduction & Motivation

About Panoptic Segmentation

对于自动驾驶而言,仅仅是提取感兴趣物体的检测信息(位置、大小、速度和类别等)是不够的,这种信息只能描述一个驾驶场景中的部分信息,另一部分信息包括建筑物,树木、栅栏等非物体信息同样对驾驶的决策起着重要作用。其次,物体框级别的信息对于某些场景就不够用了,比如多段车场景等,这时候就需要精确到点级别的感知能力。

因此,除了检测任务,自动驾驶重同样有一个重要的任务——分割。其中点云语义分割的任务是要给点云中的每一个点打上一个标签,比如车辆、行人、树木、栅栏等等;而点云实例分割的主要任务是判断点是否属于一个物体,并且属于哪个物体,即给每个点打上所属物体的id标签。点云全景分割可以看做是点云语义分割和实例分割的结合,参考下图:

基于LiDAR点云的不同的分割任务【1】

Related Work

点云有一些特性:稀疏性(sparse),表面聚集性(surface-aggregated)。这使得处理全景分割这样的任务时会有一些问题:

  1. LiDAR只能照射到物体表面,因此对于一些大车来说,表面点距离其中心很远,往往会导致过分割,如下图b
  2. 有些距离很近的小物体,比如聚集的人群,往往又会在距离空间和特征空间上被错误的合并在一起,形成欠分割,如下图a,c
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
AAAI 2020的教程“可解释人工智能”将重点介绍可解释人工智能的概念、方法和应用。可解释人工智能是指人工智能系统能够以一种可理解的方式解释其决策和行为的能力。该教程将涵盖可解释人工智能的基本原则和方法,包括规则推理、可视化技术、模型解释和对抗性机器学习等。 在教程中,我们将首先介绍可解释人工智能的背景和意义,解释为什么可解释性对于人工智能的发展至关重要。然后,我们将深入探讨可解释人工智能的基本概念和技术,例如局部解释和全局解释。我们还将介绍一些关键的可解释性方法,如LIME(局部诠释模型)和SHAP(SHapley Additive exPlanations),并解释它们的原理和应用场景。 此外,我们还将探讨可解释人工智能在各个领域的具体应用,包括医疗诊断、金融风险管理和智能驾驶等。我们将分享一些成功的案例和实践经验,探讨可解释人工智能在实际应用中的挑战和解决方案。最后,我们还将讨论未来可解释人工智能的发展趋势和挑战,展望可解释性在人工智能领域的重要性和前景。 通过参加该教程,学习者将能够全面了解可解释人工智能的概念、方法和应用,理解其在实际应用中的重要性,掌握一些关键的可解释性技术和工具,并对可解释人工智能的未来发展有一个清晰的认识。希望通过这次教程,能够为学习者提供一个全面而深入的可解释人工智能学习和交流平台。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值